En 'Human Compatible' su autor, Stuart Russell, reputado experto en Inteligencia Artificial, expone su visión frente a la llegada de una posible superinteligencia (una inteligencia artificial y general, superior a la humana) en un evento que, aunque el autor no utiliza este término, entiendo que intencionadamente, podríamos entender como la famosa 'singularidad'.
Creo que la posición de Russell se puede resumir como sigue: el autor considera que la llegada de esa superinteligencia general y superior a la humana es posible y que, por tanto, nos debemos preparar para ello. Entiende que la Inteligencia Artificial actual, tal y como está construida, caso de alcanzar ese nivel de superinteligencia, se podría escapar con bastante probabilidad de nuestro control. Y piensa que eso es debido a que le estamos poniendo a los algoritmos objetivos equivocados, unos objetivos, de alguna forma, ajenos a la verdadera intención humana y que esa inteligencia artificial, en aras de conseguir esos objetivos, podría pasar por encima de las verdaderas preferencias y necesidades humanas, eventualmente perjudicándonos e, incluso, llegando a percibirnos a nosotros, los humanos, como un impedimento para la consecución de los objetivos marcados.
De ello deriva el subtítulo del libro 'AI and the problem of control'. Así que, lo que propone, es cambiar el tipo de objetivos que ponemos a la inteligencia artificial y hacer que las máquinas se centren en satisfacer las preferencias humanas. Y desarrolla estas ideas en diez capítulos, como sigue:
- 'Chapter 1. IF WE SUCCEED: ' Comienza con una especie de breve y algo novelado recorrido histórico por los orígenes de la Inteligencia Artificial y luego comienza a centrarse en el problema de los objetivos y plantea el cambio de paradigma pasando de considerar inteligentes a las máquis que consiguen sus objetivos para pasar a considerar inteligentes a las que consiguen nuestros objetivos.
- 'Chapter 2. INTELLIGENCE IN HUMANS AND MACHINES: ' Realiza una serie de reflexiones sobre lo que es la inteligencia (tocando incluso el tema de la consciencia), el aprendizaje ysu eventual efecto en la evolución, y la racionalidad. Luego cambia de tercio para hablar de ordenadores y computación , el test de Turing y agentes inteligentes y afirma, entre otras cosas, que el progreso en Inteligencia Artificial, incluso la inteligencia artificial estrecha o débil, nos va conduciendo poco a poco a la inteligencia artificial general.
- 'Chapter 3. HOW MIGHT AI PROGRESS IN THE FUTURE?: ' Se plantea la evolución de la inteligencia artificial a corto plazo (tocando temas como el vehículo autónomo, los asistentes personales o los robots domésticos) y luego mira hacia el futuro y se pregunta cuándo llegará la superinteligencia y, aunque no duda de que llegará entiende como absurdo el estimar cuando y además afirma que para que llegue se necesitan todavía algunos grandes descubrimientos o avances pendientes de producirse para ámbitos como el lenguaje y el sentido común, el aprendizaje acumulativo, el descubrimiento, la gestión de la actividad mental y quizá algo más. Y finaliza el capítulo imaginando cómo seria esa superinteligencia.
- 'Chapter 4. MIUSES OF AI: ' Repasa algunos de los usos inadecuados o poco éticos de la inteligencia artificial, como el espionaje, la persuasión y el control, las armas letales autónomas, la eliminación del trabajo o la asunción de otros roles típicamente humanos (cuidados, compañía, etc)
- 'Chapter 5. OVERLY INTELLIGENTE AI: ' Comienza planteando el posible dominio de una superinteligencia sobre los humanos (el problema del gorila) pasando a continuación a explicar, mediante lo que se llama el problema del Rey Midas, el error que supone proponer a las máquinas unos objetivos propios puesto que, al igual que le ocurrió al mito griego, eso puede conducir a consecuencias inesperadas e indeseables.
- 'Chapter 6. THE NOT-SO-GREAT AI DEBATE: ' Recorre todas las resistencias y argumentos que se oponen a un debate sobre una super-inteligencia y las acciones para gestionarla.
- 'Chapter 7. AI A DIFFERENT APPROACH: ' En cierto modo, es el capítulo nuclear, el que expone las propuestas de Russell para gestionar adecuadamente esa superinteligencia que él cree posible. Esa propuesta se concreta en: (1) Hacer que el objetivo de las máquinas sea maximizar las preferencias humanas (máquinas altruistas) (2) Hacer que, inicialmente, las máquinas no sepan cuáles son esas preferencias (máquinas humildes) y (3) que la fuente última de información sobre las preferencias humanas sea el comportamiento de los propios humanos. Expresados esos tres fundamentos, luego repasa algunas razones tanto para el optimismo como para el pesimismo.
- 'Chapter 8. PROVABLY BENEFICIAL AI: ' Un capítulo relativamente largo en que se detalla la forma de aplicar y conseguir esos fundamentos. Se razona sobre las garantías que querríamos y cómo consegurlas y cómo aprender del comportamiento humano. Luego se aportan directrices sobre cómo debería actuar una máquina, un robot, ante una orden o una instrucción directa de un humano y se finaliza con los mecanismos de automejora recursiva.
- 'Chapter 9. COMPLICATIONS: US: ' Se centra en las personas y como éstas, nosotros, podríamos representar, con frecuencia, un problema para llevar a cabo el plantemiento de Russell. Así revisa desde problemáticas como que los humanos somos muchos y diferentes, hasta que existen humanos agradables pero otros también crueles o envidiosos, pasando por la mera estupidez humana y los factores emocionales. Al final, el autor se pregunta si los humanos tenemos realmente preferencias.
- 'Chapter 10. PROBLEM SOLVED?: ' Un capítulo final en que analiza si el construir las máquinas con esos principios realmente supondría resolver el problema y aporta otros factores o necesidades como un gobierno de la Inteligencia Artificial y la aplicación de principios éticos, el peligro de un uso malicioso por parte de humanos y el problema del eventual debilitamiento y pérdida de autonomía de la raza humana.
El libro se completa con cuatro anexos, a saber:
- 'Appendix A. SEARCHING FOR SOLUTIONS: ' donde se explica cómo se trabaja cuando se buscan soluciones a un problema, cómo 'mirar adelante' e 'imaginar' posibles soluciones.
- 'Appendix B. KNOWLEDGE AND LOGIC: ' Se aportan algunos fundamentos de lógica, incluyendo una explicación de la lógica proposicional y la lógica de primer orden.
- 'Appendix C. UNCERTAINTY AND PROBABILITY: ' Ahora se centra en unos fundamentos de probabilidad, incluyendo unas notas sobre redes bayesianas y lenguajes probabilísticos de primer orden.
- 'Appendix D. LEARNING FROM EXPERIENCE: ' Anexo final con unas ideas sobre aprendizaje
'Human Compatible' es un libro erudito, transversal e interesante pero debo decir que, siempre en mi opinión, sugiere más de lo que consigue: aborda temas muy interesantes y con puntos de vista orginales pero luego siento que no remata del todo, que no me llena el resultado, y que las conclusiones no están del todo a la altura de las preguntas formuladas. En ese sentido y aunque, de nuevo, la propuesta de cómo deberían ser las máquinas superinteligentes es original y a tener en cuenta, no me convence del todo ni me parece que este suficientemente explicado y mucho menos demostrado, que ese sea el camino y que ni siquiera sea realmente viable.
Aún así, creo que es una lectura que vale la pena.
Stuart Russell
Stuart Jonathan Russell (Portsmouth, Inglaterra, 1962) es un informático conocido por sus contribuciones a la inteligencia artificial. Es profesor de ciencias de la computación en la Universidad de California en Berkeley y profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco.
(Fuente: Traducción y elaboración propia de su Wikipedia)
Stuart J. Russell |
Stuart Russell nació en Portsmouth, Inglaterra. Recibió su título de Bachelor of Arts con honores de primera clase en Física en el Wadham College, en 1982. Posteriormente, recibió su título de doctorado en ciencias de la computación en la Universidad Stanford en 1986, por investigar en razonamiento inductivo y razonamiento por analogía, siendo supervisado por Michael Genesereth.
Tras doctorarse, se unió a la facultad de la Universidad de California en Berkeley, donde desde 1996 es profesor en ciencias de la computación. También tiene un puesto como profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco, donde investiga en fisiología computacional y en la monitorización en unidades de cuidados intensivos.
En 2016, fundó el Centro para Inteligencia Artificial Compatible con Humanos, en la Universidad de Berkeley, con los co-investigadores Pieter Abbeel, Anca Dragan, Tom Griffiths, Bart Selman, Joseph Halpern, Michael Wellman y Satinder Singh Baveja. Junto con Peter Norvig, es el autor de 'Inteligencia Artificial: Un enfoque moderno', un libro de texto usado en más de 1300 universidades en 116 países. Está en el consejo asesor científico del Future of Life Institute y en la junta asesora del Centro para el Estudio del Riesgo Existencial.
En 2017, colaboró con el Future of Life Institute en la producción de un vídeo, Slaughterbots, sobre enjambres de drones asesinando rivales políticos, y lo presentó en una reunión de las Naciones Unidas sobre el Convenio sobre Ciertas Armas Convencionales.
En 2018 participó como entrevistado en el documental Do You Trust This Computer?
Su libro más reciente, 'Human Compatible: Artificial Intelligence and the Problem of Control', fue publicado en inglés el 8 de octubre de 2019.
Puedes saber más del autor visitando su perfil en LinkedIn.
Ficha técnica:
Artículos de este blog relacionados
- Tres principios para unas máquinas inteligentes beneficiosas para la humanidad
- Una hipótesis sobre el impacto de la automatización en el empleo
- ¿Cuando se producirá 'la singularidad'? Tres motivos para evitar pronunciarse
- Los altavoces inteligentes como Caballos de Troya
- Efecto Baldwin, aprendizaje e inteligencia artificial
No hay comentarios:
Publicar un comentario