miércoles, 23 de febrero de 2022

Agentes racionales artificiales frente al problema de la escala

Muchas son las dificultades con que se encuentra la disciplina de la inteligencia artificial para conseguir la realización de un agente racional, un agente, digamos, plenamente racional, es decir, un agente que tenga unas capacidades comparables a las de un ser humano. 

Conseguirlo nos llevaría a la consecución de la llamada inteligencia artificial general (AGI, 'Artificial General Intelligence') o HLAI ('Human-Level Artificial Intelligence') y, caso de lograrlo, de forma que creo casi inmediata, nos llevaría también a la superación de la inteligencia humana. es decir, la superinteligencia y, presumiblemente, la tan traída y llevada 'singularidad'.

Para conseguir esos agentes racionales, se oponen, aparte del problema de la escala que veremos al final, al menos otras dos dificultades o barreras previas que bautizo rápidamente, de cara a este post como:


  • La dificultad de la comprensión
  • La barrera ética 


La dificultad de la comprensión


Por la dificultad de la comprensión me refiero a algo que ha salido ya repetidamente en este blog: queremos imitar el comportamiento del cerebro humano cuando realmente no sabemos cómo funciona.

En efecto, el modelo operativo para un agente racional es nuestro propio cerebro. Prescindiendo, siquiera temporal o parcialmente, de posibles concepciones religiosas que sitúen fuera de nuestro alcance la imitación del cerebro, parece que el camino más evidente, aunque no está claro que sea el más fácil, para conseguir un agente racional es desentrañar el funcionamiento del cerebro y trasladar su modelo operativo a un equipamiento artificial, un equipamiento artificial que, puestos a especular, ni siquiera tendría por qué ser de una base de semiconductores, y se podría, quizá, llegar a cultivar neuronas y diseñar y construir capacidades computacionales con ellas.

En cualquier caso, y suponiendo que sea teórica y teológicamente viable llegar a imitar el comportamiento de un cerebro humano, lo cierto es que hoy en día, simplemente, no sabemos cómo funciona, así que no podemos imitarlo, al menos no en su funcionamiento interno.

No parece teóricamente imposible, aunque sí complicado, conseguir una máquina de comportamiento externo similar a un cerebro humano con independencia de que su operación interna sea diferente. De hecho, en cierto sentido, esa es la filosofía del machine learning: renunciar a imitar una operativa interna pero aprender y detectar patrones de comportamiento externo con base en datos.

 En cualquier caso, sea posible o no en el futuro, ahora mismo no podemos 'clonar' el comportamiento del cerebro humano, porque no lo conocemos. Y la imitación externa, la que consigue el machine learning, y pese a sus indudables y espectaculares éxitos, está muy lejos de esa inteligencia artificial general, de esa consecución de un agente racional.


Una barrera ética


Una barrera no técnica, sería la que he llamado la barrera ética.

A pesar de lo atractivo que resulta desde un punto de vista científico y técnico, y probablemente económico, la realización de ese agente racional, de esa superinteligencia, lo cierto es que también asusta.

Asusta en parte porque nos hace cuestionarnos de raíz qué es el ser humano, su singularidad y su papel en el mundo. La consecución de la superinteligencia podría ser un golpe mucho más duro para la, llamémosla, 'autoestima' del ser humano, de lo que pudo suponer en su momento, el reconocimiento de que la Tierra no era el centro del Universo o la teoría evolucionista que nos colocaba como descendientes de los primates.

Y asusta por una eventual pérdida de control, por la posibilidad de que las máquinas se hiciesen con el control del mundo y nos pudieran dejar en un papel secundario o, en las visiones más distópicas, convertirnos en esclavos o aniquilarnos.

Sea por consideraciones éticas puras, o por simple temor, una barrera para el desarrollo de la superinteligencia podría ser la que he denominado esa barrera ética, es decir, no realizamos la superinteligencia porque decidimos no hacerlo. Un 'decidimos no hacerlo' que, aunque partiría de una base ética, seguramente se debería sustanciar en unas obligaciones legales y normativas.

Debo reconocer que, de todas formas, no soy excesivamente optimista en el sentido de que la barrera ética pudiese detener realmente el desarrollo de los agentes racionales si éstos fuesen técnicamente posibles y económicamente (o políticamente) interesantes. 

Antes o después, 'alguien' lo haría.


La dificultad de la escala


Sin embargo, y aunque quizá sea de alcance menor, este post se refería, en realidad, a un tercer impedimento, que he denominado la dificultad de la escala.

¿A qué me refiero?

De nuevo, la idea de un agente racional es, en esencia, imitar, y eventualmente superar, al ser humano. No es en teoría imposible pensar en otra forma de agente racional pero el modelo suele ser la imitación/superación del ser humano.

Pues bien, a pesar de los enormes avances en capacidades de computación, mediante, por ejemplo, la aparición de procesadores especiales como los GPU o TPU, mediante los algoritmos de computación distribuida usados sobre todo en Big Data, la agregación de capacidades computacionales en la nube, especialmente de los hiper-escaladores como Amazon, Microsoft, Google o IBM, a pesar de todo ello, la escala computacional que supone imitar al ser humano, parece todavía fuera de alcance.

No tengo datos completos, pero sí un apunte que hacen Stuart Russell y Peter Norvig y en las últimas páginas de su libro 'Artificial Intelligence. A modern approach', en el que nos dan este dato: 


consider the fact that a detailed plan for a human life consists of (very roughly) twenty trillion potential muscle actuation and you begin to see the scale of the problem.


Unas líneas más abajo, los mismos autores casi se burlan de la posibilidad de conseguir con un computador, incluso el más potente, las capacidades racionales de un ser humano, diciendo:


a computer that is a billion trillion times more powerful than the human brain is much further from being rational than a slug is from overtaking the starship Enterprise traveling at warp time


Y concluyen:


it seems that the goal of building rational agents is perhaps a little too ambitious


Está claro que estos dos autores, no creen en la posibilidad de conseguir los agentes racionales, al menos en un tiempo previsible.

Francamente, no me parece que el problema de la escala sea la mayor o la más insuperable barrera para la consecución de un agente racional. Ahí están los espectaculares avances en las últimas décadas en materia de capacidad de computación y ahí está también la 'promesa' de la computación cuántica. 

En cualquier caso, el problema de la escala sí que es un impedimento ahora mismo, a menos si no ideamos otros modelos algorítmicos igual o más eficaces que los actuales pero mucho más frugales en recursos computacionales.


Conclusión


O sea que, como ya más o menos he expresado repetidamente en este blog, con independencia de que consideremos teóricamente posible o no el conseguir esos agentes racionales, esa inteligencia artificial general o incluso esa superinteligencia, lo que sí parece claro es que ahora mismo estamos, al menos desde el punto de vista puramente técnico, bastante lejos de ello.

El tiempo nos irá diciendo si también estamos muy lejos o no de conseguirlo, precisamente, desde un punto de vista temporal.

Y mientras tanto, y por si acaso, procede pensarlo anticipadamente y, por favor, con realismo, desde un punto de vista de control (control de máquinas super-inteligentes) y pensarlo también desde un punto de vista ético y normativo. 


No hay comentarios:

Publicar un comentario