viernes, 12 de febrero de 2021

Tres principios para unas máquinas inteligentes beneficiosas para la humanidad

Cuando miramos hacia el futuro de la inteligencia artificial, un futuro que no sabemos del todo bien dónde situar, nos asaltan dudas y temores acerca de si realmente se puede alcanzar una inteligencia artificial generalista, una máquina super-inteligente, tan inteligente que pudiera superar de manera general a la inteligencia humana y que. en las visiones más extremas, en la llamada singularidad, se pueda llegar a  auto-mejorar y hasta tomar el control independizándose, por así decirlo, del dominio humano.

¿Es eso posible?

Creo que la respuesta más realista y honrada es que no lo sabemos. No parece que sea seguro, pero tampoco imposible. Si está claro que estamos lejos, bastante lejos de ese punto.

Pero estamos lejos si hablamos de nuestro nivel tecnológico actual, de las capacidades de la inteligencia artificial presente, frente a las que se necesitarían para una inteligencia artificial general como la mencionada. Pero no necesariamente lejos si hablamos de tiempo. Una disrupción tecnológica, un descubrimiento radical, podría acercar mucho algo que ahora mismo parece muy lejano, casi pura fantasía.

No estamos, pues, seguros de ese escenario sea posible, pero tampoco de que sea imposible. Así que quizá convenga estar vigilantes y preparados, y con tiempo, para un evento tan importante, tan disruptivo para la humanidad, quizá el más relevante desde su propia creación.

Trabajando un poco en esa línea Stuart Russell, en su libro 'Human compatible: AI and the problem of control' se preocupa inicialmente sobre lo que puede pasar si la inteligencia artificial alcanza el notable éxito de construir una inteligencia artificial general, un éxito que, sin embargo, el autor parece ver como un regalo envenenado, algo que pone en riesgo a la humanidad.

Sin embargo, su visión no es del todo pesimista, o al menos no del todo desesperanzada. No aboga por una eventual prohibición del desarrollo de la Inteligencia Artificial, una prohibición que no ve, por otro lado, muy viable.

Stuart J. Russell
Lo que aboga en realidad, al menos eso es lo que yo entiendo, es por cambiar la forma de diseñar los algoritmos de inteligencia artificial, para adoptar unas políticas que eliminen el riesgo de que las máquinas tomen el control en nuestra contra.

Para ello indica que debemos dejar de trabajar con máquinas o algoritmos a los que les establecemos objetivos, ya que esos objetivos se convierten en una suerte de mandamientos ineludibles, unos mandatos que la máquina o el robot intenta cumplir a toda costa, 'caiga quien caiga' por así decirlo. Y en la persecución del cumplimiento de sus objetivos puede generar muchos daños y acciones indeseadas incluyendo el evitar su propio apagado o ignorar las voluntades de los humanos o el daño que les pueda infligir puesto que eso va en contra del cumplimiento de sus objetivos.

Como alternativa, nos habla de unas máquinas beneficiosas  ¿Qué son esas máquinas beneficiosas? Pues, en palabras del propio Russel:

 

machines whose actions can be expected to achieve our objectives rather than their objectives.


O sea, que el truco está en cambiarle los objetivos. Ya no deben tener objetivos propios, aunque sean objetivos marcados por los humanos, sino que su gran objetivo pasa a ser el cumplimiento de los deseos de los humanos

Y para articular un poco más esa idea aporta tres principios que deben gobernar esas máquinas beneficiosas y que nada tienen que ver con las leyes de la robótica de Asimov (aunque un parecido lejano sí parecen guardar) Esos tres principios son


  • Máquinas altruistas puras: El único objetivo de la máquina es maximizar la realización de las preferencias humanas

  • Máquinas humildes: La máquina inicialmente tiene incertidumbre acerca de cuáles son esas preferencias

  • Predecir las preferencias humanas: La fuente última de información sobre las preferencias humanas es el comportamiento humano

Quizá convenga aclarar un poco el sentido de los dos últimos principios. La humildad, el desconocimiento inicial de cuáles son las preferencias humanas, obliga a que la máquina tenga que aprender de los humanos, para lo cual se aplicará el tercer principio. La idea es evitar una especie de soberbia algorítmica' que le haga 'pensar' a la máquina que sabe todo sobre los humanos sin 'consultar' realmente cómo son y qué prefieren. De no hacerlo así la máquina actuaría con una peligrosa 'cabezonería' similar a cuando le ponemos objetivos propios con el riesgo que eso conllevaría.

El tercer principio garantiza que esa super-inteligencia realmente se fija en los humanos para aprender evitando otras fuentes.

¿Cómo suenan esos principios?

¿Quizá abstractos y simplistas? ¿Quizá futuristas? ¿Quizá lejanos de una implementación real en algoritmos reales?

Puede que un poco sí, pero no olvidemos, por una parte, que estamos hablando de un futuro incierto y, por otro lado, y sobre todo, que quien los formula, Stuart Russell, es un muy buen conocedor de cómo funciona la inteligencia artificial real, fuera de toda fantasía, así que quizá tenga sentido darles a estos principios algún tipo de oportunidad.


No hay comentarios:

Publicar un comentario