viernes, 1 de diciembre de 2023

La inteligencia artificial contada a los humanos por Jordi Torres

En 'La inteligencia artificial explicada a los humanos', Jordi Torres, un especialista en la materia, aborda el reto de explicar de forma sencilla y asequible la inteligencia artificial, conjugando los principales elementos conceptuales con su desarrolo histórico.

El libro, no muy extenso, se estructura en ocho capítulos:
  • '1. ¿Está la IA desplazando la IA al ser humano?:' primero constata la casi omnipresencia actual de la inteligencia artificial para, a continuación, pasar a explicar qué podemos entender por inteligencia artificial, cuatro paradigmas existentes (conocimiento, datos, experiencia y fuerza bruta) y acabar mencionando la problemática de la singularidad.

  • '2. ¿Cómo se creó la primera IA?:' habla del concepto de máquinas inteligentes, menciona a algunos pioneros como Alan Turing o John McCarthy, cuenta el hito de la derrota de Gary Kasparov a manos de DeepBlue y explica la inteligencia artificial simbólica y basada en el conocimiento.

  • '3. ¿Cómo una IA empezó a aprender de los humanos?:' introduce ya la inteligencia artificial basada en datos, identifica y explica lo que considera los tres pilares de la inteligencia artificial, a saber, datos, algoritmos y computación, mencionando ya las redes neuronales y contando un nuevo hito, a saber, la victoria de AlphaGo.

  • '4. ¿Cómo una IA consiguió aprender por sí misma?:' nos habla del aprendizaje por refuerzo ('reinforcement learning') y nos habla de experiencias como AlphaZero o AlphaFold.

  • '5. ¿Cómo una IA ha conseguido ser creativa?:' pasa a explicar la inteligencia artificial generativa y llega, claro, a los modelos GPT, el trabajo de OpenAI y ChatGPT.

  • '6. ¿Podrá una IA llegar a pensar?:' un capítulo algo más especulativo, que comienza haciendo ver la falta de sentido común en la inteligencia artificial y la necesidad de nuevos enfoques para conseguir un verdadero pensamiento, destacando, además, el papel de la supercomputación.

  • '7. ¿Nos debe preocupar el impacto de la IA actual?:' una mirada de carácter ya más ético, que primero explica cómo la mayoría de soluciones de inteligencia artificial actúan como 'cajas negras' y se detiene luego tanto en los aspectos éticos como en el impacto social.

  • '8. ¿Podemos prescindir de la IA?:' reconoce que la inteligencia artificial está aquí para quedarse, pero identifica como una oportunidad la coevolución humana con la inteligencia artificial, aboga por una regulación de la inteligencia artificial y clama porque Europa recupere una cierta posición de soberanía y liderazgo, identificando como soporte para ello las capacidades existentes de supercomputación.
'La inteligencia artificial explicada a los humanos' es un libro de carácter claramente divulgativo: breve, muy fácil de leer y sin ninguna complejidad técnica. Un libro sobre todo orientado a personas legas en la materia y que deseen un acercamiento inteligible. Pero, para los técnicos o ya conocedores de esta tecnología, puede darles perspectiva, sobre todo histórica pero también basada la claridad de pensamiento y expositiva y, en último término, el regalo de leer un libro agradable que trata de una tecnología moderna y apasionante.

Jordi Torres


(Fuente: Adaptación de la biografía en su página oficial)

Jordi Torres
Estudió Informática en la Facultat d’Informàtica de Barcelona de la Universitat Politècnica de Catalunya (UPC Barcelona Tech, 1988). Posteriormente realizó el doctorado en la misma UPC (siendo merecedor del premio a la mejor tesis de Informática de la UPC en el año 1993). Actualmente, es catedrático a tiempo completo en el Departamento de Arquitectura de Computadores de la UPC. Además, ha estado en el Center for Supercomputing Research & Development en Urbana-Champaign (Illinois, EE. UU., 1992) como investigador visitante.

Ha participado en más de 180 publicaciones de investigación en revistas, conferencias y capítulos de libros y colaborado en numerosa conferencias de las asociaciones IEEE y ACM siendo miembro del Comité de Programa en más de 50 de estas además de ocupar, en varias de ellas, cargos como Poster Chair, Program Chair, Publicity Chair, Steering Committee. También ha sido revisor de revistas relevantes en el área como IEEE Transactions on Computers, IEEE Transactions on Parallel and Distributed Systems, Concurrency, and Computation-Practice and Experience, Journal of Parallel and Distributed Computing, International Journal of Autonomic Computing, entre otras.

En 2005 se fundó el Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC) siendo nombrado responsable de la línea de investigaciónAutonomic Systems and eBusiness Platforms dentro del departamento de Computer Sciencedel BSC. Este grupo de investigación generó más de 120 artículos de investigación y 11 tesis doctorales, así como componentes de software que se pueden aplicar a nivel de middleware de los sistemas informáticos para mejorar su adaptabilidad, eficiencia y productividad. El grupo de investigación centró su trabajo de investigación en los middleware de plataformas de ejecución de supercomputación compuestas por sistemas de múltiples cores de alta productividad con aceleradores y arquitecturas de almacenamiento avanzadas e implementadas en entornos distribuidos a gran escala. El grupo creció hasta llegar a 30 personas y fue el momento de reorganizar el grupo en nuevos grupos dentro del departamento de Computer Scienceen BSC. Ahora tengo el encargo de explorar nuevas oportunidades para aplicar la tecnología de Supercomputación al campo de la Inteligencia Artificial. Así se ha creado el nuevo grupo de investigación Emerging Technologies for Artificial Intelligence el cual dirige.

su actividad actual en esta área se reparte en diferentes frentes, destacando los trabajos incluidos en el convenio CaixaBank-BSC, que aplica la computación cognitiva al sector bancario. A lo largo de estos años con su grupo de investigación ha participado en una veintena de proyectos en convocatorias competitivas, y muchos de ellos implicaron transferencia de tecnología entre la universidad y la industria. El grupo de investigación también ha participado en Redes de Excelencia como la European Network of Excellence on High Performance and Embedded Architecture and Compilation(HiPEAC), la Partnership for Advanced Computing in Europe(PRACE) o la European Technology Platform for High-Performance Computing(ETP4HPC).

Ha estado dando clases durante más de 30 años en temas fundamentales de la informática como son los sistemas operativos, arquitectura de computadores, redes informáticas o evaluación del rendimiento de sistemas. Actualmente imparte asignaturas en el máster de Ingeniería Informática (máster MEI) y en el de Innovación e Investigación en Informática (master MIRI) acerca de temas relacionados con Cloud Computing, Big Data, Inteligencia Artificial o Deep Learning. En la actualidad también está colaborando con otras entidades como la UPC School of Professional & Executive Developmento ESADE. En el pasado fué miembro de la Cátedra Telefónica-UPC durante varios años donde trabajó en innovación docente.

Una porción de su tiempo tiene un rol consultivo y estratégico con tareas visionarias relacionadas con la tecnología de próxima generación y su impacto. Actualmente es miembro del consejo de administración de la empresa iThinkUPC actuando además de asesor en el departamento de Analítica de datos. Durante muchos años ha actuado como experto en estos temas para diversas organizaciones, empresas y ayudando a emprendedores. Ha sido miembro del consejo de administración de UPCnet (2011-2013), miembro del consejo asesor en el Centro de Excelencia de Big Data de Barcelona (2015-2016) y miembro del BSC Access Committee core team, entre otros. Ha participado como experto independiente por la European Commission(Information Society and Media Directorate) en 2010, para Friends of Europe’s Greening Europe Forum en2011, y para la Swiss Academy of Engineering Science durante 2012-2013. Actúa periódicamente como evaluador para el Ministerio de Ciencia y Tecnología de España, para la Dirección General de Investigación de la comunidad de Madrid, para la Universitat Jaume I de Castelló, para el Departament d’Universitat i Recerca de la Generalitat de Catalunya, para la Fundación La Caixa, o la Ireland science Foundation, entre otras instituciones. En el 2010 fué elegido por la Fundació Centre Tècnològic de Catalunya como miembro del equipo de expertos para elaborar el libro blanco La contribución de las TIC a la transición a un modelo energético más sostenible y en 2012 la Comisión Europea le invitó a contribuir en la agenda de la Second Digital Assembly.

Está comprometido con la divulgación de la ciencia y la técnica para llevarla fuera de las aulas universitarias al público en general. Por ello colabora con diversos medios de comunicación, radio y televisión desde hace años. En paralelo ha realizado numerosas conferencias para todo tipo de audiencias. También ha publicado varios libros acerca de ciencia y tecnología para un público general.

Antes de crearse el Barcelona Supercomputing Center, fué miembro del Centro Europeo de Paralelismo de Barcelona (CEPBA) (1994-2004) y miembro del board of managers del CEPBA-IBM Research Institute(CIRI) (2000- 2004). Ha sido Vicedecano de Relaciones Institucionales en la Facultat d’Informàtica de Barcelona (1998-2001). También ha sido miembro del Claustro de UPC varias épocas y miembro de la Junta de gobierno (2011-2013) participando activamente en varias de sus comisiones. Durante 30 años ha participado en numerosas actividades de gestión académica y representación institucional de la UPC.

Durante su carrera académica ha recibido algunos reconocimientos. Recientemente el Best Paper Award del workshop DeepVision en CVPR 2019 por el trabajo de nuestra doctorando Míriam Bellver. La “Menció FIBER” en el 2015 en el Camp del Barça, concedido por la mejor asociación de Alumni de la FIB. También tiene reconocidos 4 “tramos de investigación” por la “Comisión Nacional Evaluadora de la Actividad Investigadora”. Premio a la mejor tesis de informática de la UPC del curso 1993-94. Accésit al 1er Concurso de ideas medioambientales de la UPC (1998) concedido juntamente con Josep R. Herrero. Premio OLIVETTI-UPC en forma de beca (1992) o una beca de doctorado de la UPC (1991).

Es miembro de diferentes asociaciones como IEEE, ACM o ISOC. Es uno de los organizadores del Barcelona Spark Meetup y el Barcelona Data Science and Machine Learning Meetup.

Puedes conocer más del autor visitando su página oficial, su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @JordiTorresAI.
  

Ficha técnica:


AUTOR: Jordi Torres
AÑO: 2023 
ISBN: 978-8419655561
PAGINAS: 136

miércoles, 29 de noviembre de 2023

Sobre la idea de cyborg

Un concepto, quizá en nuestra mente más asociado al mundo de la ciencia ficción que a la realidad, es el de cyborg, una especie de fusión entre el ser humano y la máquina.

Y, sin embargo, no se trata completamente de un concepto fantasioso (al menos no cuando no se lleva hasta sus últimas consecuencias), sino que existen ya realidades.


Puede que todos seamos un poco cyborg


En realidad, si lo pensamos bien, vivimos, y ya desde la antigüedad, en una creciente 'cyborgización', en una mayor participación de la tecnología en nuestro bienestar y en nuestro propio ser.

Aunque sea un nivel de tecnología muy básico y como ejemplo, cuando para arreglar una fractura grave, se unen las partes del hueso con una placa que queda en el interior, hemos incorporado a nuestro cuerpo un elemento tecnológico, muy básico si se quiere, pero real.

Cuando para arreglar una miopía o unas cataratas nos implantamos lentes intraoculares, estamos incorporando tecnología y elementos artificiales a nuestro propio cuerpo que arreglan desperfectos pero que a veces también potencian nuestras capacidades. Aunque mucho más primitivo y 'de quita y pon' las propias gafas son una forma de incorporación de tecnología al cuerpo.

Algo parecido podemos decir de un marcapasos, de una bomba de insulina, de un implante coclear o de extremidades robóticas para amputados, por mencionar algunas.

Así que, aunque la idea de cyborg nos pueda resultar ajena, extraña e incluso repulsiva, parece que de forma creciente nos introducimos en ella, nos convertimos todos un poco en cyborg y dado que nos ayuda a resolver problemas, no la percibimos como nada malo, como nada cuestionable.


El cyborg extremo


Claro, lo que pasa es que al hablar de cyborg, en el fondo, estamos pensando en formas digamos extremas de cyborg. Un cyborg en que las capacidades artificiales que se incorporan tienden no tanto al arreglo de deficiencias como al aumento de capacidades físicas, perceptuales o cognitivas, un cyborg en que la fusión es mucho más profunda y no meramente anecdótica.

Especialmente en las formas aún fantásticas (sin realización real, al menos actual) de cyborg, en que se puedan aumentar las capacidades intelectuales (mediante alguna forma de fusión con la inteligencia artificial) o de memoria (mediante alguna forma de fusión con la computación en la nube), de telekinesis o telepatía (probablemente mediante algún tipo de fusión con neurotecnología), la multiplicación de nuestra fuerza física (mediante alguna forma de fusión con exoesqueletos o extensiones robóticas) nos sorprenden, nos desafían, nos asustan...y puede que con razón. 


El concepto de cyborg de Donna Haraway


¿Qué es un cyborg en realidad?

Donna Haraway
Bueno, cada uno puede tener su opinión y la evolución tanto tecnológica como social nos conducirá a un sitio u otro, pero quería revisar muy brevemente un concepto primigenio de cyborg, el expuesto por Donna Haraway en su famoso 'A Cyborg manifesto' y que atrae mi atención al encontrarlo mencionado en el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel, un manifiesto que descubro tiene más que ver, quizá, con una visión del feminismo e incluso con una revisión filosófica de corrientes como el marxismo o el existencialismo, temas en los que no voy a entrar.

Pero con lo que me quedo es sólo con la idea que resume Gunkel acerca de que la visión de Haraway de un cyborg, no se queda sólo en esa idea de la fusión de humano máquina sino que, de alguna forma  lo extiende para reforzar la idea es que lo importante es romper distinciones binarias, en este caso entre orgánico e inorgánico o lo natural de lo tecnológico.


Implicaciones y transhumanismo


No voy a analizarlo, pero sí quisiera mencionar cómo una visión extrema, o al menos avanzada de cyborg, que tiende a conducirnos a visiones transhumanistas de 'superación' de lo meramente humano, tiene implicaciones muy serias, de tipo ético y social (por ejemplo, un forma nueva de brecha entre humanos aumentados y no aumentados y entre clases pudientes y no pudientes) o incluso filosófico profundo (la verdadera naturaleza humana).


Conclusiones


Probablemente, la ídea de cyborg, aparte de retos tecnológicos muy interesantes, plantea, y en realidad esto es mucho más importante, profundos desafíos éticos y morales, muchas preguntas a las que es muy difícil contestar ahora mismo y que creo que lo iremos haciendo poco a poco a medida que los avances tecnológicos vayan haciendo más y más factible formas más complejas (prefiero no utilizar el término 'avanzadas') de cyborg y por tanto las posibilidades cyborg sean más tangibles, más reales. La reflexión sobre todo ello, desde luego, daría para muchísimo más que un post.

Recordemos, no obstante, que ya todos hoy en día somos un poco cyborg y, más bien, se trata de saber hasta dónde será posible llegar y hasta dónde estaremos dispuestos a llevar esa fusión con la tecnología.


lunes, 27 de noviembre de 2023

Responsabilidad de las máquinas y el Mago de Oz

¿De quién es la responsabilidad de lo que hacen las máquinas? 

Se trata de un problema aún sin resolver completamente y que se puede ir haciendo más complejo a medida que las máquinas cobran mayor inteligencia y, sobre todo, mayor autonomía.

El debate está abierto y, quizá, el Mago de Oz ofrezca una metáfora sobre su solución.

Veamos. 


El mago de Oz: la película


'El mago de Oz' es la bien conocida y ya muy antigua película, que por cierto no he visto, lanzada en 1939 y basada en el libro 'El maravilloso mago de Oz' de Frank L. Baum. No creo que importe mucho a estas alturas hacer un pequeño 'spoiler' recordando que en esa película, donde la protagonista Dorothy es llevada por un tornado al mágico mundo de Oz, uno de los habitantes de ese mundo de ensueño es un mago que, al final, resulta ser ficticio, en realidad un humano que realiza trucos de ilusionismo. 

Y eso da lugar a la popular metáfora en algunos ámbitos del 'mago de Oz'.


El Mago de OZ como Producto Mínimo Viable 


El término Mago de Oz se ha hecho, en efecto, más o menos popular para significar, de alguna manera, situaciones en que una realidad más o menos autónoma, automática, o mágica, es manejada por detrás por humanos de una manera mucho más manual y menos mágica de lo que parece.

Así, en el mundo de la innovación y el emprendimiento, y específicamente en el caso de una metodología como Lean Startup, el 'Mago de Oz' es una forma de producto mínimo viable (un producto incompleto en sus capacidades o características pero suficiente par ponerlo en manos de clientes obteniendo de esta manera 'feedback' sobre el mismo), quizá no el más mínimo todo hay que decirlo, en que un 'front-office' que aparenta un producto o servicio terminado y más o menos automatizado o al menos optimizado, es en realidad, en 'back-office' manejado de una forma bastante manual y artesanal.

Esta forma de operar permite ofrecer una apariencia de producto o servicio terminado, sin la necesidad de invertir en todo el desarrollo e implantación del back-office.

Eso si, no parece que permita una operación a gran escala. 


La responsabilidad sobre sistemas inteligentes autónomos


Cuando se habla de agentes inteligentes autónomos, como puedan ser robots avanzados o vehículos autónomos, una cuestión que aúna lo ético con lo legal es quién es responsable de un eventual mal funcionamiento, de un fallo, de un daño a terceros.

Desde un punto de vista ético, en su vertiente más filosófica, eso nos lleva a una reflexión sobre la agencia moral, sobre si un ente artificial puede ser considerado como un agente moral, es decir, puede hacerse responsable de sus acciones y puede discernir de alguna manera el bien del mal.

Desde un punto de vista más práctico, que nos acerca a lo legal, esto nos lleva más bien a quién puede ser culpable (y eventualmente condenado) por un daño realizado por estos agentes artificiales y quién debería, eventualmente, pagar indemnizaciones.

No hay una doctrina clara al respecto, y las especulaciones sobre una eventual 'personalidad electrónica', podrían llevar a alguna forma de 'culpabilidad' del agente artificial. 

Sin embargo, pensando de manera práctica y en un terreno sobre todo legal, no parece que tenga demasiado sentido castigar a un robot. ¿Le importaría mucho a un robot estar encarcelado? ¿Pagar una multa? ¿Y, como, por cierto, pagaría la multa ese robot? ¿No la pagaría, más bien, su dueño, o fabricante, por ejemplo?


El Mago de Oz de la responsabilidad


Las consideraciones anteriores parecen apuntar en el sentido de que, al menos por el momento, y desde un punto de vista práctico, la responsabilidad ha de estar en las personas, aunque pueda existir debate legal sobre qué personas en concreto (dueños, fabricantes, diseñadores...).

Sin embargo, y volviendo al terreno más filosófico, hay quien piensa que el atribuir la responsabilidad a personas, en lugar de al robot o ente artificial, no se trata solo un tema práctico, sino un principio firme y de naturaleza ética, no legal.

En el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel éste nos hacer ver alguna posición en ese sentido que afirma que siempre habrá, al final, un humano como responsable y, en ese sentido, nos dice:


According to this way of thinking, all artifacts, no matter how sophisticated or interactive they appear to be, are actually a Wizard of Oz technology.


lo cual resulta una bonita metáfora en que, también a efectos de responsabilidad y no solo de innovación, podemos estar hablando de un mago de Oz, un mago de Oz de la responsabilidad en que, a pesar de la apariencia de agencia moral y por tanto responsabilidad que pueda ofrecer el ente artificial, desde un punto de vista moral está 'operado' por detrás por humanos y es responsabilidad, por tanto, de los humanos. 

Y al contrario de lo que sucedía en innovación, en este caso no se trata de una estrategia temporal, sino de algo profundo y esencial.


Conclusiones


Al menos a corto plazo, y al menos desde un punto de vista práctico, parece que la responsabilidad sobre lo que hacen las máquinas, recae en último término sobre humanos, aunque pueda aún estar poco claro en algunos casos sobre qué humano concretamente.

Pero hay corrientes de pensamiento que entienden que no se trata sólo de una opción práctica y de corto plazo sino que, desde un punto de vista ético y esencial, las responsabilidad debe ser siempre en último término humana y que, en ese sentido, en el de la responsabilidad, la tecnología inteligente y autónoma es solo un caso más de Mago de Oz.

 


miércoles, 22 de noviembre de 2023

Cuatro áreas de trabajo en consciencia artificial

Como ya hemos comentado con cierta frecuencia en este blog, existen esfuerzos científicos y técnicos, para entender la consciencia humana, para conseguir modelos implementables en máquinas y, en último término, alcanzar la denominada consciencia artificial

Esos esfuerzos han dado lugar a diversas teorías, modelos e implementaciones.


Cuatro áreas para la consciencia artificial


En libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella y en concreto, en el capítulo titulado 'Intelligence and consciousness in natural and artificial intelligence', David Gamez, intenta clasificar los tipos de soluciones, los tipos de máquinas en que se trabaja en este campo.

Y esta es la clasificación que nos propone:


  • MC1 - Máquinas con comportamiento externo que sistemas conscientes: De la misma forma que los humanos se comportan de cierta forma cuando están conscientes (alerta ante situaciones nuevas o ejecución de pasos de resolución de problemas), se pueden conseguir máquinas que exhiban ese tipo de comportamientos. El autor cita en concreto Watson cuando está jugando a Jeopardy. Se trata, como se puede ver, de una solución realizable, y realizada, ya hoy en día y desde hace un cierto tiempo.

  • MC2 - Modelos de correlatos de la consciencia: Es decir, modelado en máquinas de los modelos funcionalmente equivalentes a los existentes para la actividad funcional y neuronal humana. Un caso propuesto por el autor son las implementaciones de la Global Workspace Theory que ya mencionamos en el post 'Teorías para la consciencia (II): Global Workspace Theory'. De nuevo, son un tipo de soluciones perfectamente alcanzables hoy día, aunque hago notar que realmente estamos trabajando con modelos sin verdadera seguridad de que la consciencia humana funcione de la forma que postulan esos modelos.

  • MC3 - Modelos de la consciencia: Las experiencias conscientes se pueden modelar en ordenadores e, incluso, usarse para controlar robots, como ha hecho, por ejemplo, el editor del libro, Antonio Chella para controlar a un guía-robot. Por tercera vez, vemos que es algo conseguible e implementable, pero de nuevo avisaría de que no dejan de ser modelos hipotéticos aunque puedan resultar funcionales como parece haber demostrado Chella en el ejemplo citado.

  • MC4 - Máquinas que experimentan estados conscientes: Nos dice el autor que cuando los humanos estamos conscientes estamos algo así como inmersos en una burbuja en que experimentamos colores, olores, sonidos, etc. Este área de máquinas significaría conseguir en ellas una experiencia similar. Reconoce Gamez que este área no está realmente conseguida y nos dice que para hacerlo deberíamos ser capaces de mapear de una forma fiable, los estados físicos y los conscientes. Lo mejor es que afirma, sin ambages, y creo que con mucha honradez, que 'no tenemos ni idea de si nuestras máquinas son conscientes en el modo MC4'.

No deja de hacernos notar Gamez que éstas áreas, no son compartimentos estancos y que realmente existen solapes entre ellas.


Un problema sin resolver


Aunque los trabajos, modelos y autores que se mencionan, son serios, científicos y rigurosos, creo que realmente estamos lejos de resolver el problema de la consciencia humana, volviéndose a demostrar que conseguirla es un objetivo elusivo.

Sin duda podemos conseguir, y conseguimos de hecho, comportamientos externos que simulan inteligencia y consciencia. Y los novedosos modelos generativos de la Inteligencia Artificial, parecen un gran salto en este sentido.

Pero seguimos sin conocer realmente la naturaleza profunda de la consciencia, más allá de nuestra experiencia individual y menos aún conocemos los mecanismos fisiológicos, neuronales, computacionales o lo que sea, que la genera y opera.

Por ello, aunque podemos lograr comportamientos externos y modelos funcionales implementables, creo que estamos lejos de conseguir la consciencia de la máquinas aunque, estrictamente hablando, desde un punto de vista más teórico que real, y como nos dice Gamez en el último caso, en el fondo no tenemos ni idea de si nuestras máquinas son conscientes o no.

¿Cómo podemos saberlo?


Conclusiones


La consciencia artificial sigue siendo un problema elusivo y que creo que estamos lejos de resolver. Incluso el solo hecho de demostrar la consciencia en un plano que no sea la mera experiencia individual es complejo en sí mismo.


miércoles, 15 de noviembre de 2023

Cuatro hipótesis sobre la inteligencia natural y artificial

Hablamos de inteligencia artificial, y hacemos bien, porque es una de las tecnologías más transformadoras y dinámicas con que contamos en la actualidad.

Y decimos que, de alguna manera, la inteligencia artificial está inspirada en la inteligencia humana, y hacemos bien, porque así es, esa inspiración ha existido y existe, pero siempre con la salvedad o la advertencia de que no pensemos que la inspiración implica, necesariamente emulación, ni siquiera aspiración a suplantarla.

Y, sin embargo, como tantos conceptos alrededor de la inteligencia artificial y la robótica, la idea misma de inteligencia se encuentra algo difuminada, difícil de definir y de entender íntimamente, por más que nuestra experiencia diaria nos haga muy sencillo entenderla, digamos, 'experiencialmente'.

Leyendo el libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella me encuentro, en el capítulo 'Intelligence and consciousness in natural and artificial intelligence'' firmado por David Gamez, del departamento de Computer Science de la Middlesex University, un enunciado de cuatro hipótesis acerca de la inteligencia, cuatro hipótesis en principio válidas tanto para la inteligencia natural como para la artificial.

Vamos a revisarlas, pero antes conviene explicar algún concepto previo que se adelanta en ese mismo capítulo y sobre los que no resistiré la tentación de hacer alguna traslación, en mi entendimiento, a la inteligencia artificial.


Inteligencia y predicción


Aunque a primera vista pueda sorprender, a poco que se piense en ello, no es tan raro la asociación de inteligencia con la capacidad de hacer predicciones. El poder predecir lo que va a pasar en el entorno, y el ser capaz de predecir lo que nuestras acciones sobre el entorno van a generar, son capacidades básicas para poder planificar y, por tanto, para exhibir un comportamiento más allá de lo puramente reflejo, lo puramente reactivo.

En la fuente citada, además, nos indican no sólo esta asociación, digamos, macroscópica de la inteligencia con la capacidad de predicción sino que, además, nos indica que existen ciertas teorías que afirman que la función primaria del cerebro es, precisamente, hacer predicciones y que, además, internamente se estructura de forma que las capas más externas hacen predicciones sobre la actividad de las capas más internas.

Si trasladamos esta idea a la inteligencia artificial, la verdad es que nos resulta, creo, muy natural, especialmente cuando pensamos en machine learning. Precisamente, y hay definiciones que así lo reflejan, el machine learning 'fabrica' un modelo del mundo durante su entrenamiento que le permite luego hacer predicciones acertadas en fase de inferencia. De hecho, cuando en algún ámbito informático oímos el término 'predictivo', casi seguro estamos ante una solución de machine learning.


Los entornos y las limitaciones de la inteligencia


David Gamez
El cerebro, como se sabe, es un órgano que consume mucha energía. Por tanto, 'intentar' que se capaz de hacer predicciones sobre cualquier cosa, una capacidad casi divina, no sería 'económico'. Por tanto, los seres vivos y en concreto la raza humana ha desarrollado su cerebro de forma que sea capaz de hacer predicciones en ciertos entornos conocidos, donde se ha desarrollado su actividad, obviando de alguna forma el resto. 

En general, en estos entornos, es muy bueno haciendo predicciones. Fuera de esos entornos, su capacidad para generalizar y predecir es mucho más limitada.

En concreto, se dice que el cerebro humano resuelve bien problemas en un entorno 'cazador-recolector' en donde surgió y se desarrolló.

Según esto, el cerebro humano, a pesar de su potencia, es en cierto modo limitado. Nos dice:


human intellect is not adapted for the large majority of conceivable tasks.


Y remata:


Humans, non-human animals, and AI systems have, to a greater or lesser extent, limited abilities to solve problems that they have not encountered before.


Trasladando esto a la inteligencia artificial actual, podemos decir que también el consumo computacional y energético es un problema. Debido en parte a esto, y debido en muchísima mayor medida a nuestras limitaciones actuales en cuanto a algoritmia, está claro que, también, nuestros modelos y sistemas actuales tienen ámbitos limitados de actuación, mucho más limitados que los de un ser humano. 

A pesar de que avances como son los modelos fundacionales permiten un primer paso de generalización, estamos lejísimos de igualar la generalidad de una inteligencia humana, no digamos ya nada de superarla en cuanto a esa generalidad.


Inteligencia cristalizada


La inteligencia cristalizada es una forma de memoria sobre problemas encontrados anteriormente. Con base en ellos, el sistema supuestamente inteligente puede hacer predicciones en situaciones conocidas.

Si lo trasladamos a la inteligencia artificial, en cierto sentido, también existe esa inteligencia cristalizada, aunque quizá aplica una distinción. Cuando la memoria de esos problemas resueltos anteriormente la aporta realmente el humano, el programador o diseñador, lo hace en forma de reglas que a veces son fijas y, en ese caso, normalmente consideramos que estamos fuera del campo de la inteligencia artificial. Cuando esos problemas resueltos anteriormente, se muestran a un algoritmo en fase de entrenamiento (p ej, aprendizaje supervisado) o en base a experiencia (p ej, aprendizaje por refuerzo) sí que hablaríamos de inteligencia artificial.

Sea cual sea la situación, podemos entender que los sistemas inteligentes, de una forma u otra, tienen algo de esa inteligencia cristalizada.


Inteligencia fluida


Se denomina inteligencia fluida a la capacidad de hacer predicciones en situaciones que el sistema en cuestión no se ha encontrado anteriormente. De alguna forma se aplica una deducción más que una inducción.

Bueno, en cierto sentido, también los sistemas inteligentes pueden ser capaces de esta inteligencia fluida. En algunos casos, quizá los menos representativos de la inteligencia artificial actual, porque el sistema dispone de reglas genéricas, como las que se utilizaban en sistemas expertos o como las heurísticas de algoritmos de búsqueda, que le permiten hacer ciertas 'deducciones'.

Quizá, quizá, la capacidad de un algoritmo de machine learning, por ejemplo tipo red neuronal de, tras el entrenamiento, enfrentarse a problemas nuevos en fase de inferencia se podría entender como inteligencia fluida aunque me parece que, en el caso de algoritmos de machine learning, se desdibuja un poco la frontera entre inteligencia cristalizada y fluida, existe un mismo modelo que recoge el 'conocimiento' y que se aplica tanto a situaciones vistas anteriormente como a situaciones nuevas, aunque creo entender que están presentes ambas de alguna manera. 


Las cuatro hipótesis sobre la inteligencia


Bueno, y explicado todo esto, las cuatro hipótesis que nos propone Gamez para una inteligencia, sea ésta natural o artificial, son:


  • Hipótesis 1: La predicción es el componente más importante de la inteligencia.

  • Hipótesis 2: La predicción y la inteligencia son relativos a conjuntos de entornos.

  • Hipótesis 3: La cantidad de inteligencia cristalizada de un sistema varía con el número de predicciones precisas que puede hacer en un conjunto de entornos.

  • Hipótesis 4: La cantidad de inteligencia fluida varía con el ratio positivo de cambios en su inteligencia cristalizada


No sé si esas cuatro hipótesis abarcan 'todo' lo que es la inteligencia, pero sí que parecen hipótesis bastante razonables e incluso casi intuitivas (una vez explicados los conceptos que hay detrás) y parece que, en efecto, las encontramos tanto en la inteligencia natural como en la artificial.


Conclusiones


A pesar de tener experiencia de ella, no es fácil ni definir ni caracterizar de forma rigurosa lo que es la inteligencia. Las cuatro hipótesis de Gamez parecen recoger al menos algunos de los elementos esenciales de la inteligencia, con la virtud añadida de que no resulta difícil visualizarlos tanto en la inteligencia natural como en la artificial.


lunes, 13 de noviembre de 2023

Patrones y significados. La verdadera naturaleza del entendimiento y la cognición

Los algoritmos y las máquinas inteligentes, cada vez parecen exhibir un mayor conocimiento, un mayor entendimiento de la realidad, y esa sensación se ha visto fuertemente incrementada en los últimos meses por los grandes avances en materia, fundamentalmente aunque no únicamente, de procesamiento de lenguaje natural y de información expresada mediante ese lenguaje natural.

Pero ¿es así? ¿De verdad las máquinas cada vez entienden mejor al mundo y a nosotros, los humanos?

Veamos.


La esencia del Machine Learning


Los avances más espectaculares que se han realizado en inteligencia artificial ultimamente, se incluyen dentro del ámbito del machine learning y más específicamente del deep learning.

A grandes rasgos y simplificando un poco, podríamos decir que la esencia del machine learning (y, por tanto, la esencia del deep learning y de gran parte de la inteligencia artificial más avanzada que se hace hoy en día) consiste en detectar patrones en los datos, descubrir las regularidades y relaciones que anidan en ellos de forma que, con base en esos patrones detectados, podamos construir un modelo del mundo (o, más bien, del 'cachito' del mundo a que se refiere la problemática concreta que estemos estudiando) y que podamos utilizar ese modelo del mundo (lo puedan utilizar los algoritmos en realidad) para predecir resultados o comportamientos ante nuevas situaciones que asumimos se comportan conforme a esos mismos patrones.

Y los resultados son en general muy satisfactorios, a veces impresionantes y de aspecto, desde luego, muy inteligente.


Patrones y entendimiento


¿Pero es eso verdadero conocimiento? ¿Tienen los algoritmos y las máquinas inteligentes, al menos las basadas en machine learning, verdadero conocimiento? ¿Entienden realmente lo que están haciendo?

Bueno, puede haber diversas opiniones pero en esencia la respuesta parece ser negativa.

En concreto, en el capítulo firmado por Pentti Haikonen y titulado 'On artificial intelligence, consciousness and robots' incluido dentro del libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella me encuentro esta argumentación de Haikonen en contra:


Pattern detection and classification alone does not constitute understanding.


Es decir, simplemente, la detección de patrones no constituye un verdadero entendimiento de la materia a que afectan dichos patrones, un entendimiento que sí poseemos los humanos, y eso parece alejar a la inteligencia artificial de la inteligencia humana y, quizá, sólo quizá, eso aleja también la posibilidad, en el estado del arte actual, de conseguir una inteligencia artificial general y unas máquinas conscientes porque parece que ambas cosas reclaman un verdadero entendimiento del que ahora carecen.

Según el mismo autor, en la inteligencia artificial no tenemos unas verdadera cognición, además, porque esa cognición debería estar apoyada en significados:


Cognition does not arise from the linking of symbols, it arises from the linking of meanings.


Ya hablamos en el post anterior sobre la problemática de los significados y su fundamentación ('symbol grounding') y cómo actualmente no se está consiguiendo, al menos por el momento y de forma generalizada, a pesar de investigarse en ello, esa fundamentación de significados con base en la experiencia 'sensorial'.


Conclusión


Así que la sensación es que no, que las máquinas no entienden realmente lo que están haciendo y que no parece que con el tipo de tecnologías y algoritmos actuales se pueda conseguir.

Pero no quisiera que esa afirmación fuese una afirmación absoluta, casi ni siquiera una verdadera afirmación porque ya sabemos la capacidad que tienen la ciencia y la tecnología para sorprendernos y el acelerado avance conseguido en los últimos meses y años abren la puerta a casi cualquier cosa.


miércoles, 8 de noviembre de 2023

Significados y el problema del 'symbol grounding' para una auténtica inteligencia y consciencia artificiales

Cuando especulamos sobre una verdadera inteligencia artificial, verdadera en el sentido de que 'entiende' lo que hace, nos enfrentamos al problema de la adquisición de significado y ello nos lleva, a su vez, al problema del fundamentado de los símbolos o 'symbol grounding' problem.

Intento explicar en qué consiste todo esto.


Comportamiento versus entendimiento. El caso de la IA generativa.


Pese a que algunas especulaciones fantasiosas puedan hacer pensar otra cosa, los sistemas actuales de inteligencia artificial o robótica cognitiva no entienden la realidad ni lo que están haciendo. En cierto sentido podríamos decir que su comportamiento es inteligente, a veces muy inteligente, pero que las máquinas en sí mismas no lo son, al menos no en un sentido comparable a una inteligencia humana.

Aunque su comportamiento externo es inteligente, internamente no 'saben' lo que están haciendo, no comprenden realmente la realidad. Quizá en estos momentos tengamos el ejemplo más perfecto de esto en el caso de las soluciones conversacionales de IA generativa del tipo ChatGPT: sus capacidades son asombrosas, sus respuestas y la forma en que las expresan también. Presentan un comportamiento externo inteligente y aparentan entender lo que les decimos, tener un conocimiento casi infinito y responder de forma coherente y adecuada. No siempre, es cierto, pero normalmente sí y, además, en el fondo las personas tampoco damos siempre respuestas coherentes y acertadas. O sea que dicho familiarmente, 'ni tan mal'.

Y sin embargo, sabemos que la respuesta que nos ofrece una solución generativa es de naturaleza básicamente probabilística y de coherencia lingüística: un ChatGPT construye sus respuestas encadenando símbolos lingüísticos (o imágenes) coherentes con el prompt recibido, lo ya generado anteriormente y lo que ha 'aprendido' de la naturaleza del lenguaje humano.

Pero no entiende nada de nada, por más que su respuesta haga pensar otra cosa. Su respuesta es inteligente, la máquina no tanto.


Símbolos y significado


La inteligencia humana, y en cierto sentido la artificial, parecen manejarse, en su expresión más elevada, mediante símbolos, abstracciones de la realidad con un cierto significado. Entre los signos que manejamos, se encuentran de forma prominente los de naturaleza lingüística.

Podemos pensar que una solución de procesamiento de lenguaje natural también utiliza símbolos, las propias palabras o su tokens correspondientes.

En cierto sentido, las representaciones de más bajo nivel, de los datos y las informaciones, que se manejan en sistemas digitales y, en concreto, en las soluciones de inteligencia artificial, podrían, creo, entenderse también como símbolos.

Los seres humanos, no sólo manejamos los símbolos, lingüísticos o no, sino que entendemos lo que significan. Sin embargo, en el caso de la inteligencia artificial, podemos decir que se manejan bien, cada vez mejor, los símbolos, pero sin saber lo que significan.


Hacer entender a las máquinas


¿Cómo hacer que una máquina entienda los símbolos que maneja?

En los primeros sistemas de inteligencia artificial, precisamente los pertenecientes a la denominada inteligencia artificial simbólica, se implementaba la denominada representación de conocimiento que, con base a lógica de predicados, modelos de información (muy parecidos a los modelos entidad-relación propios de las bases de datos relacionales), etc parecía dotar al sistema de conocimiento. En cierto sentido era así, pero creo que eso no puede considerarse un verdadero entendimiento. Lo que esas informaciones aportaban al sistema era orientación sobre símbolos existentes y sus relaciones, no muy lejos conceptualmente de lo que hace un gran modelo de lenguaje actual durante su entrenamiento, pero no me parece que se pueda considerar un auténtico entendimiento.


El problema del diccionario


Si intentamos enseñar a una máquina lo que significa un símbolo con base en otros símbolos que ya maneja la máquina, caemos en lo que se conoce como 'problema del diccionario': un diccionario explica palabras con base en otras palabras. Pero si no llega un momento en que las palabras tienen significado por sí mismas, sin necesidad de definición o explicación mediante diccionario, estamos en un bucle recursivo y casi sin fin de intentar explicar las palabras, símbolos al fin y al cabo, cuyo significado desconocemos, con base en otras, palabras, otros símbolos, cuyo significado también desconocemos.

Se necesita, en algún punto, poder entender un símbolo, una palabra, por sí mismo y con base en la realidad, no explicándola mediante otros símbolos.


Symbol grounding


Y eso nos lleva al problema del 'symbol grounding' que, aunque siempre lo he visto descrito en inglés, me voy a atrever  a traducir como fundamentado de símbolos.

Lo que tiende a decir las teorías cognitivas, es que ese 'symbol grounding' se produce mediante percepción y experiencia de la realidad, con mucha frecuencia la realidad externa percibida mediante nuestros sentidos y procesada por el cerebro. De alguna forma, una forma que creo se desconoce en estos momentos, se asocia una experiencia del mundo real con símbolos que la representan internamente. Esto incluye también auto-percepción, pues nuestro sistema nervioso envía al cerebro sensaciones del propio cuerpo.

Una vez que al menos unos símbolos tiene su significado anclado a la realidad, fundamentado en ella vía experiencia de esa realidad, ya es posible componerlos para conseguir otros símbolos quizá más abstractos.


El caso de los algoritmos y la robótica cognitiva


 ¿Y cómo conseguimos eso en el caso de las máquinas?

No está claro pero, siendo consistentes con la teoría cognitiva, debemos hacer que algunos símbolos los obtenga la máquina a partir de sus sistemas de percepción (sensores y procesamiento posterior), es decir, de su experiencia de la realidad. En el caso de un robot a los que la mayoría de autores les supone en su definición, un cuerpo físico, con sensores y actuadores, parece teóricamente posible conseguir esa experiencia y por tanto esa fundamentación de los símbolos, aunque no creo que haya ninguna realización realmente exitosa en este campo actualmente.

Si existiese esa realización exitosa, estaríamos, creo, en el umbral de conseguir la consciencia de las máquinas.

¿Y en el caso de los algoritmos puros, no robots?

Bueno, esto podría llevarme al debate de si un robot software es un verdadero robot y si tiene cuerpo o no lo tiene. Pero eso sería meterme en 'un jardín' que, para lo que hablamos, poco aporta.

Si suponemos un, digamos, algoritmo puro, sin realización física, al menos en lo que a sensores se refiere, deberíamos pensar, me parece, en alguna forma de transferencia de conocimiento (un 'transfer learning' del que ya se habla en inteligencia artificial y que con tanto éxito se aplica en los denominados modelos fundacionales de la inteligencia artificial generativa), es decir, un robot cognitivo, o máquina similar con implementación física de sensores, debería ser capaz de adquirir el conocimiento, el fundamentado de los símbolos y luego ser transferido (copiado directamente o en la nube) para su uso por otras máquinas.

Hay que decir que según algunas teorías, esa transferencia no sería posible, puesto que, de alguna forma, la experiencia de la realidad, especialmente del propio cuerpo, es propia de cada entidad, viva o, en este caso, artificial. 


En el umbral de las consciencia


Antes decía que conseguir ese anclaje, ese fundamentado de significados nos pondría en el umbral de las conciencia de las máquinas porque, si a esa percepción de la realidad externa, le añadimos la auto-percepción del robot y el symbol grounding correspondiente del propio cuerpo, de la propia realidad, se produciría ese contraste entre la realidad externa, la actuación de la máquina y la realidad interna que está en la base de muchas teorías sobre consciencia.

De todas formas, y como decía, y hasta donde se me alcanza, no se ha conseguido un verdadero éxito, un éxito masivo y generalizable, en el symbol grounding, aunque haya investigación seria sobre ello, y no tengo claro que lo vayamos a conseguir en breve.

Así que no, no parece que hayamos alcanzado el umbral. 


Conclusiones


Se encuentra aún latente y creo que sin resolver, la verdadera asignación de significado por parte de las máquinas a los símbolos que manejas esos sistemas artificiales, algoritmos o robots cognitivo.

Si se consiguiese, dispondríamos de máquinas que realmente entienden lo que hacen y nos podríamos situar en el umbral de una consciencia artificial.

Pero no parece que aún estemos ahí.