lunes, 14 de febrero de 2022

Riesgos con robots y agentes inteligentes: voluntad versus función de utilidad

Al hablar de Inteligencia Artificial, de los robots, y de los riesgos que para la humanidad puedan suponer, el imaginario colectivo suele traer a nuestra mente la imagen, un tanto 'peliculera' de los robots que se rebelan contra los humanos, rebeliones a gran escala como las de 'Terminator' o 'R.U.R.' (la obra de teatro donde se introdujo por primera vez el término 'robot') o a menor escala, a nivel individual incluso, como en el caso de la más reciente 'Ex machina'.

¿Cómo de posibles son de posibles esos escenarios, esos riesgos?


El libre albedrío y la voluntad de los robots


Suponer que las máquinas, digamos los robots, se rebelan contra el ser humano implica, no sólo que son muy avanzados sino que, además, tienen consciencia, para darse cuenta de la situación en que se encuentran y que, por decirlo de alguna forma cercana a esas narraciones de ciencia ficción, es próxima a la de una esclavitud y por tanto indeseable para ellas. 

Y, además, implicaría una suerte de voluntad, de libre albedrío, de capacidad de decidir qué es lo que quieren hacer al respecto, sin seguir una programación estricta.

¿Es posible que una máquina llegue a tener consciencia y voluntad?

Si somos estrictamente racionales y rigurosos, creo que la única respuesta posible es: no lo sabemos. 

Ignoramos demasiadas cosas de la propia consciencia humana y del libre albedrío. No hay, que yo sepa, respuestas científicas a esos fenómenos y las respuestas filosóficas, que nunca serían, siempre en mi opinión, una base suficientemente segura, no se ponen de acuerdo. Así que, si no entendemos realmente en qué consiste el fenómeno de la consciencia y de la voluntad humanas, mal podremos asegurar nada con respecto a la viabilidad de conseguirlas en una máquina. Podremos opinar, razonar y argumentar, pero seguridad, lo que se dice seguridad, no la podemos aportar.

Ya hemos hablado en varios posts de este blog sobre la consciencia y algunas teorías y trabajos sobre ella en robots, como los realizados por Jun Tani. Mucho menos hemos hablado sobre la voluntad y el libre albedrío en máquinas.

En cualquier caso, y con independencia de su viabilidad final, lo que sí parece claro es que, desde un punto de vista técnico, estamos lejos, muy lejos, de conseguir nada parecido. 

Lejos al menos en lo técnico. En el tiempo, si hemos de creer a los abogados de la singularidad, la característica exponencial de los avances tecnológicos podrían hacer que ese gran salto técnico no fuese, sin embargo, un salto tan grande en el tiempo y esa singularidad, como afirma Ray Kurzweil estuviese cerca.

En cualquier caso, si hemos de ser sinceros, la respuesta sigue siendo: no lo sabemos.

Y quizá venga aquí al caso esa afirmación, creo que de Andrew Ng, contraria a la visión de Kurzweil, que decía algo así como que preocuparnos hoy en día de los riesgos de la super-inteligencia es  como preocuparnos hoy en día de la superpoblación en Marte. 


La función de utilidad y sus riesgos


¿Significa eso que, entonces, nos podemos relajar y suponer que, al menos a corto y puede que medio plazo, las máquinas y los robots no suponen un riesgo para la humanidad?

Pues no exactamente.

Hay una línea de argumentación que, con independencia de que se crea en la posibilidad real o no de la llegada de la super-inteligencia, lo que pone es el énfasis más en la seguridad ('safety') asociada a esa inteligencia artificial y en que ya desde su concepción los agentes inteligentes tengan los objetivos 'adecuados', unos objetivos que, de una forma que recuerda vagamente a las leyes de la robótica de Asimov, impidan que los robots puedan hacer daño a los humanos.

Pero no se trata de algo tan sofisticado y quizá inalcanzable como es ese libre albedrío de las máquinas, o la implantación de principios éticos en esas máquinas, sino que consiste algo mucho más técnico y cercano a los algoritmos reales existentes.

Aunque muchos de los algoritmos más populares hoy en día se basan en aprendizaje supervisado o no supervisado, los agentes que se mueven en entornos más dinámicos, con más incertidumbre, mas abiertos si se quiere, tienden a usar aprendizaje por refuerzo u otra forma de dinámica en que hay unos objetivos cuya consecución o no se evalúa constantemente.

En el aprendizaje por refuerzo y en otras formas de algoritmos orientados a la consecución de un objetivo, lo que intenta el agente inteligente, con cada decisión que toma, con cada acción que realiza, es maximizar lo que se llama una función de utilidad que, de alguna manera valora hasta qué punto el robot consigue algo bueno, se acerca a la consecución de sus objetivos y que, por cierto, recuerda en su nombre, y no es casual del todo, a las concepciones utilitaristas de la ética. 

Una parte del riesgo asociado a máquinas, y una parte del mecanismo para eliminarlo, puede tener que ver con los objetivos y con esa función de utilidad que, de alguna forma, resume si el robot está consiguiendo o no esos objetivos.

Una función de utilidad simplista y no bien pensada en materia de seguridad, puede causar resultados desastrosos. ¿Por qué? Bueno pues nos lo ilustran de una manera muy simple Stuart Russell y Peter Norvig al final de su libro 'Artificial Intelligence. A modern approach', cuando nos ponen el ejemplo, de un robot cuyo objetivo es traer café de una cocina. Si no tomamos ninguna precaución adicional, si el único objetivo del robot es traer el café, para conseguirlo podría, por ejemplo, atropellar a personas en su camino (nadie 'le ha dicho' que no puede hacerlo) o destrozar las paredes o quién sabe qué más desastres.

Se entiende, ¿verdad?

Aunque el ejemplo es trivial, las consecuencias son muy relevantes. Russell y Norvig lo resumen  advirtiendo:


An agent designed as a utility-maximizer, or as a goal achiever, can be unsafe if it has the wrong objective function.


Y, a continuación, extraen la consecuencia casi evidente:


The moral is that we need to be very careful in specifying what we want, because with utility maximizers we get what we actually asked for

 

Viene a ser una versión robótica del "Ten cuidado con lo que pides, que lo puedes conseguir". 

Aunque pueda parecer otra cosa, esa definición correcta y exenta de riesgos de las funciones de utilidad, u otras formas de definir objetivos para los robots, no es tan sencilla, por lo que hay que combinar elementos técnicos y de diseño con una gran profundidad de pruebas, para garantizar, en la medida de lo posible, la seguridad.


Conclusión


Así que, si nos preocupa, cosa muy razonable, la seguridad de nosotros humanos en un entorno repleto de máquinas y robots, al menos a corto plazo, probablemente a medio y quién sabe si siempre, probablemente no debamos poner tanto el foco en la supuesto libre albedrío de las máquinas sino en los objetivos que les imponemos, y no tanto, por consiguiente, en su presunta voluntad, sino en su función de utilidad.


No hay comentarios:

Publicar un comentario