viernes, 20 de octubre de 2023

Alineamiento y control de la inteligencia artificial

Cuando se habla de los riesgos que puede conllevar la inteligencia artificial más avanzada, aquellos algoritmos o robots dotados de mayor inteligencia y autonomía, en especial, cuando nos preocupamos sobre la eventual llegada de una inteligencia artificial general (AGI, 'Artificial General Intelligence') y la traída y llevada singularidad, se suele aludir, buscar o reclamar dos mecanismos de 'seguridad': el control y el alineamiento.
En este sencillo post, simplemente, voy a recordar de qué estamos hablando, por si el lector desconociera ambas ideas. 

Y lo hago inspirado por la breve mención que al respecto hace Eve Poole en su reciente libro 'Robot souls', aunque, por ejemplo, el problema del control es algo que ya ha salido en este mismo blog cuando hablábamos, por ejemplo, de las aportaciones de Stuart Russell en su libro, significativamente titulado 'Human compatible: AI and the problem of control' o de Sven Nyholm, en su libro 'This is technology ethics'


Control de la inteligencia artificial.


Cuando hablamos de control nos referimos a introducir mecanismos que permitan a los humanos siempre supervisar, orientar, corregir y eventualmente apagar un algoritmo, sistema o robot inteligente, de forma que éstos sistemas inteligentes no puedan actuar "a su libre albedrío" (nótense las comillas), eliminando o minimizando así problemáticas de seguridad y, sobre todo, y en el caso de que se crea en él, el denominado riesgo existencial o la "rebelión" o deriva de la máquina.

La posibilidad del control creo que es bastante realista (y necesaria) en el nivel de soluciones tecnológicas actuales, aunque pueden existir dudas sobre si seríamos realmente capaces de controlar siempre a una eventual inteligencia artificial general y más inteligente que los propios humanos.


Alineamiento de la inteligencia artificial.


La idea de alineamiento es diferente. Más que de controlar a la máquina (algoritmo, sistema o robot), la idea es que los objetivos que persigan esas máquinas coincidan con los de los humanos y de esta forma no nos puedan hacer daño o llevarnos a situaciones indeseadas.

La idea es sugerente pero al menos ahora mismo me parece menos realista que el control, al menos como solución general. ¿Por qué? Pues porque los propios humanos no nos ponemos de acuerdo entre nosotros sobre lo que queremos, sobre lo que es bueno y malo, sobre lo que es correcto y lo que no.

El alineamiento es realista, creo, para tareas más o menos mecánicas, de ámbito limitado y con objetivos claros (en cierto modo, es lo que ya hacemos ya constantemente cuando entrenamos a los algoritmos, especialmente en aprendizaje supervisado) pero me parece menos clara su factibilidad si queremos que aborde problemáticas generales y sobre todo de orden moral.

De todas formas ahí está como posible planteamiento y área de trabajo.


Conclusión


El control  el alineamiento son dos mecanismos propuestos, en muchos casos me parece que más a nivel de debate intelectual que práctico, sobre todo en el caso del alineamiento, como una forma de asegurar la supervivencia y bienestar de los humanos ante el posible caso de unos sistemas inteligentes, muy inteligentes, de una inteligencia general, y con capacidades eventualmente superiores a las de los humanos.


No hay comentarios:

Publicar un comentario