miércoles, 29 de noviembre de 2023

Sobre la idea de cyborg

Un concepto, quizá en nuestra mente más asociado al mundo de la ciencia ficción que a la realidad, es el de cyborg, una especie de fusión entre el ser humano y la máquina.

Y, sin embargo, no se trata completamente de un concepto fantasioso (al menos no cuando no se lleva hasta sus últimas consecuencias), sino que existen ya realidades.


Puede que todos seamos un poco cyborg


En realidad, si lo pensamos bien, vivimos, y ya desde la antigüedad, en una creciente 'cyborgización', en una mayor participación de la tecnología en nuestro bienestar y en nuestro propio ser.

Aunque sea un nivel de tecnología muy básico y como ejemplo, cuando para arreglar una fractura grave, se unen las partes del hueso con una placa que queda en el interior, hemos incorporado a nuestro cuerpo un elemento tecnológico, muy básico si se quiere, pero real.

Cuando para arreglar una miopía o unas cataratas nos implantamos lentes intraoculares, estamos incorporando tecnología y elementos artificiales a nuestro propio cuerpo que arreglan desperfectos pero que a veces también potencian nuestras capacidades. Aunque mucho más primitivo y 'de quita y pon' las propias gafas son una forma de incorporación de tecnología al cuerpo.

Algo parecido podemos decir de un marcapasos, de una bomba de insulina, de un implante coclear o de extremidades robóticas para amputados, por mencionar algunas.

Así que, aunque la idea de cyborg nos pueda resultar ajena, extraña e incluso repulsiva, parece que de forma creciente nos introducimos en ella, nos convertimos todos un poco en cyborg y dado que nos ayuda a resolver problemas, no la percibimos como nada malo, como nada cuestionable.


El cyborg extremo


Claro, lo que pasa es que al hablar de cyborg, en el fondo, estamos pensando en formas digamos extremas de cyborg. Un cyborg en que las capacidades artificiales que se incorporan tienden no tanto al arreglo de deficiencias como al aumento de capacidades físicas, perceptuales o cognitivas, un cyborg en que la fusión es mucho más profunda y no meramente anecdótica.

Especialmente en las formas aún fantásticas (sin realización real, al menos actual) de cyborg, en que se puedan aumentar las capacidades intelectuales (mediante alguna forma de fusión con la inteligencia artificial) o de memoria (mediante alguna forma de fusión con la computación en la nube), de telekinesis o telepatía (probablemente mediante algún tipo de fusión con neurotecnología), la multiplicación de nuestra fuerza física (mediante alguna forma de fusión con exoesqueletos o extensiones robóticas) nos sorprenden, nos desafían, nos asustan...y puede que con razón. 


El concepto de cyborg de Donna Haraway


¿Qué es un cyborg en realidad?

Donna Haraway
Bueno, cada uno puede tener su opinión y la evolución tanto tecnológica como social nos conducirá a un sitio u otro, pero quería revisar muy brevemente un concepto primigenio de cyborg, el expuesto por Donna Haraway en su famoso 'A Cyborg manifesto' y que atrae mi atención al encontrarlo mencionado en el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel, un manifiesto que descubro tiene más que ver, quizá, con una visión del feminismo e incluso con una revisión filosófica de corrientes como el marxismo o el existencialismo, temas en los que no voy a entrar.

Pero con lo que me quedo es sólo con la idea que resume Gunkel acerca de que la visión de Haraway de un cyborg, no se queda sólo en esa idea de la fusión de humano máquina sino que, de alguna forma  lo extiende para reforzar la idea es que lo importante es romper distinciones binarias, en este caso entre orgánico e inorgánico o lo natural de lo tecnológico.


Implicaciones y transhumanismo


No voy a analizarlo, pero sí quisiera mencionar cómo una visión extrema, o al menos avanzada de cyborg, que tiende a conducirnos a visiones transhumanistas de 'superación' de lo meramente humano, tiene implicaciones muy serias, de tipo ético y social (por ejemplo, un forma nueva de brecha entre humanos aumentados y no aumentados y entre clases pudientes y no pudientes) o incluso filosófico profundo (la verdadera naturaleza humana).


Conclusiones


Probablemente, la ídea de cyborg, aparte de retos tecnológicos muy interesantes, plantea, y en realidad esto es mucho más importante, profundos desafíos éticos y morales, muchas preguntas a las que es muy difícil contestar ahora mismo y que creo que lo iremos haciendo poco a poco a medida que los avances tecnológicos vayan haciendo más y más factible formas más complejas (prefiero no utilizar el término 'avanzadas') de cyborg y por tanto las posibilidades cyborg sean más tangibles, más reales. La reflexión sobre todo ello, desde luego, daría para muchísimo más que un post.

Recordemos, no obstante, que ya todos hoy en día somos un poco cyborg y, más bien, se trata de saber hasta dónde será posible llegar y hasta dónde estaremos dispuestos a llevar esa fusión con la tecnología.


lunes, 27 de noviembre de 2023

Responsabilidad de las máquinas y el Mago de Oz

¿De quién es la responsabilidad de lo que hacen las máquinas? 

Se trata de un problema aún sin resolver completamente y que se puede ir haciendo más complejo a medida que las máquinas cobran mayor inteligencia y, sobre todo, mayor autonomía.

El debate está abierto y, quizá, el Mago de Oz ofrezca una metáfora sobre su solución.

Veamos. 


El mago de Oz: la película


'El mago de Oz' es la bien conocida y ya muy antigua película, que por cierto no he visto, lanzada en 1939 y basada en el libro 'El maravilloso mago de Oz' de Frank L. Baum. No creo que importe mucho a estas alturas hacer un pequeño 'spoiler' recordando que en esa película, donde la protagonista Dorothy es llevada por un tornado al mágico mundo de Oz, uno de los habitantes de ese mundo de ensueño es un mago que, al final, resulta ser ficticio, en realidad un humano que realiza trucos de ilusionismo. 

Y eso da lugar a la popular metáfora en algunos ámbitos del 'mago de Oz'.


El Mago de OZ como Producto Mínimo Viable 


El término Mago de Oz se ha hecho, en efecto, más o menos popular para significar, de alguna manera, situaciones en que una realidad más o menos autónoma, automática, o mágica, es manejada por detrás por humanos de una manera mucho más manual y menos mágica de lo que parece.

Así, en el mundo de la innovación y el emprendimiento, y específicamente en el caso de una metodología como Lean Startup, el 'Mago de Oz' es una forma de producto mínimo viable (un producto incompleto en sus capacidades o características pero suficiente par ponerlo en manos de clientes obteniendo de esta manera 'feedback' sobre el mismo), quizá no el más mínimo todo hay que decirlo, en que un 'front-office' que aparenta un producto o servicio terminado y más o menos automatizado o al menos optimizado, es en realidad, en 'back-office' manejado de una forma bastante manual y artesanal.

Esta forma de operar permite ofrecer una apariencia de producto o servicio terminado, sin la necesidad de invertir en todo el desarrollo e implantación del back-office.

Eso si, no parece que permita una operación a gran escala. 


La responsabilidad sobre sistemas inteligentes autónomos


Cuando se habla de agentes inteligentes autónomos, como puedan ser robots avanzados o vehículos autónomos, una cuestión que aúna lo ético con lo legal es quién es responsable de un eventual mal funcionamiento, de un fallo, de un daño a terceros.

Desde un punto de vista ético, en su vertiente más filosófica, eso nos lleva a una reflexión sobre la agencia moral, sobre si un ente artificial puede ser considerado como un agente moral, es decir, puede hacerse responsable de sus acciones y puede discernir de alguna manera el bien del mal.

Desde un punto de vista más práctico, que nos acerca a lo legal, esto nos lleva más bien a quién puede ser culpable (y eventualmente condenado) por un daño realizado por estos agentes artificiales y quién debería, eventualmente, pagar indemnizaciones.

No hay una doctrina clara al respecto, y las especulaciones sobre una eventual 'personalidad electrónica', podrían llevar a alguna forma de 'culpabilidad' del agente artificial. 

Sin embargo, pensando de manera práctica y en un terreno sobre todo legal, no parece que tenga demasiado sentido castigar a un robot. ¿Le importaría mucho a un robot estar encarcelado? ¿Pagar una multa? ¿Y, como, por cierto, pagaría la multa ese robot? ¿No la pagaría, más bien, su dueño, o fabricante, por ejemplo?


El Mago de Oz de la responsabilidad


Las consideraciones anteriores parecen apuntar en el sentido de que, al menos por el momento, y desde un punto de vista práctico, la responsabilidad ha de estar en las personas, aunque pueda existir debate legal sobre qué personas en concreto (dueños, fabricantes, diseñadores...).

Sin embargo, y volviendo al terreno más filosófico, hay quien piensa que el atribuir la responsabilidad a personas, en lugar de al robot o ente artificial, no se trata solo un tema práctico, sino un principio firme y de naturaleza ética, no legal.

En el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel éste nos hacer ver alguna posición en ese sentido que afirma que siempre habrá, al final, un humano como responsable y, en ese sentido, nos dice:


According to this way of thinking, all artifacts, no matter how sophisticated or interactive they appear to be, are actually a Wizard of Oz technology.


lo cual resulta una bonita metáfora en que, también a efectos de responsabilidad y no solo de innovación, podemos estar hablando de un mago de Oz, un mago de Oz de la responsabilidad en que, a pesar de la apariencia de agencia moral y por tanto responsabilidad que pueda ofrecer el ente artificial, desde un punto de vista moral está 'operado' por detrás por humanos y es responsabilidad, por tanto, de los humanos. 

Y al contrario de lo que sucedía en innovación, en este caso no se trata de una estrategia temporal, sino de algo profundo y esencial.


Conclusiones


Al menos a corto plazo, y al menos desde un punto de vista práctico, parece que la responsabilidad sobre lo que hacen las máquinas, recae en último término sobre humanos, aunque pueda aún estar poco claro en algunos casos sobre qué humano concretamente.

Pero hay corrientes de pensamiento que entienden que no se trata sólo de una opción práctica y de corto plazo sino que, desde un punto de vista ético y esencial, las responsabilidad debe ser siempre en último término humana y que, en ese sentido, en el de la responsabilidad, la tecnología inteligente y autónoma es solo un caso más de Mago de Oz.

 


miércoles, 22 de noviembre de 2023

Cuatro áreas de trabajo en consciencia artificial

Como ya hemos comentado con cierta frecuencia en este blog, existen esfuerzos científicos y técnicos, para entender la consciencia humana, para conseguir modelos implementables en máquinas y, en último término, alcanzar la denominada consciencia artificial

Esos esfuerzos han dado lugar a diversas teorías, modelos e implementaciones.


Cuatro áreas para la consciencia artificial


En libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella y en concreto, en el capítulo titulado 'Intelligence and consciousness in natural and artificial intelligence', David Gamez, intenta clasificar los tipos de soluciones, los tipos de máquinas en que se trabaja en este campo.

Y esta es la clasificación que nos propone:


  • MC1 - Máquinas con comportamiento externo que sistemas conscientes: De la misma forma que los humanos se comportan de cierta forma cuando están conscientes (alerta ante situaciones nuevas o ejecución de pasos de resolución de problemas), se pueden conseguir máquinas que exhiban ese tipo de comportamientos. El autor cita en concreto Watson cuando está jugando a Jeopardy. Se trata, como se puede ver, de una solución realizable, y realizada, ya hoy en día y desde hace un cierto tiempo.

  • MC2 - Modelos de correlatos de la consciencia: Es decir, modelado en máquinas de los modelos funcionalmente equivalentes a los existentes para la actividad funcional y neuronal humana. Un caso propuesto por el autor son las implementaciones de la Global Workspace Theory que ya mencionamos en el post 'Teorías para la consciencia (II): Global Workspace Theory'. De nuevo, son un tipo de soluciones perfectamente alcanzables hoy día, aunque hago notar que realmente estamos trabajando con modelos sin verdadera seguridad de que la consciencia humana funcione de la forma que postulan esos modelos.

  • MC3 - Modelos de la consciencia: Las experiencias conscientes se pueden modelar en ordenadores e, incluso, usarse para controlar robots, como ha hecho, por ejemplo, el editor del libro, Antonio Chella para controlar a un guía-robot. Por tercera vez, vemos que es algo conseguible e implementable, pero de nuevo avisaría de que no dejan de ser modelos hipotéticos aunque puedan resultar funcionales como parece haber demostrado Chella en el ejemplo citado.

  • MC4 - Máquinas que experimentan estados conscientes: Nos dice el autor que cuando los humanos estamos conscientes estamos algo así como inmersos en una burbuja en que experimentamos colores, olores, sonidos, etc. Este área de máquinas significaría conseguir en ellas una experiencia similar. Reconoce Gamez que este área no está realmente conseguida y nos dice que para hacerlo deberíamos ser capaces de mapear de una forma fiable, los estados físicos y los conscientes. Lo mejor es que afirma, sin ambages, y creo que con mucha honradez, que 'no tenemos ni idea de si nuestras máquinas son conscientes en el modo MC4'.

No deja de hacernos notar Gamez que éstas áreas, no son compartimentos estancos y que realmente existen solapes entre ellas.


Un problema sin resolver


Aunque los trabajos, modelos y autores que se mencionan, son serios, científicos y rigurosos, creo que realmente estamos lejos de resolver el problema de la consciencia humana, volviéndose a demostrar que conseguirla es un objetivo elusivo.

Sin duda podemos conseguir, y conseguimos de hecho, comportamientos externos que simulan inteligencia y consciencia. Y los novedosos modelos generativos de la Inteligencia Artificial, parecen un gran salto en este sentido.

Pero seguimos sin conocer realmente la naturaleza profunda de la consciencia, más allá de nuestra experiencia individual y menos aún conocemos los mecanismos fisiológicos, neuronales, computacionales o lo que sea, que la genera y opera.

Por ello, aunque podemos lograr comportamientos externos y modelos funcionales implementables, creo que estamos lejos de conseguir la consciencia de la máquinas aunque, estrictamente hablando, desde un punto de vista más teórico que real, y como nos dice Gamez en el último caso, en el fondo no tenemos ni idea de si nuestras máquinas son conscientes o no.

¿Cómo podemos saberlo?


Conclusiones


La consciencia artificial sigue siendo un problema elusivo y que creo que estamos lejos de resolver. Incluso el solo hecho de demostrar la consciencia en un plano que no sea la mera experiencia individual es complejo en sí mismo.


miércoles, 15 de noviembre de 2023

Cuatro hipótesis sobre la inteligencia natural y artificial

Hablamos de inteligencia artificial, y hacemos bien, porque es una de las tecnologías más transformadoras y dinámicas con que contamos en la actualidad.

Y decimos que, de alguna manera, la inteligencia artificial está inspirada en la inteligencia humana, y hacemos bien, porque así es, esa inspiración ha existido y existe, pero siempre con la salvedad o la advertencia de que no pensemos que la inspiración implica, necesariamente emulación, ni siquiera aspiración a suplantarla.

Y, sin embargo, como tantos conceptos alrededor de la inteligencia artificial y la robótica, la idea misma de inteligencia se encuentra algo difuminada, difícil de definir y de entender íntimamente, por más que nuestra experiencia diaria nos haga muy sencillo entenderla, digamos, 'experiencialmente'.

Leyendo el libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella me encuentro, en el capítulo 'Intelligence and consciousness in natural and artificial intelligence'' firmado por David Gamez, del departamento de Computer Science de la Middlesex University, un enunciado de cuatro hipótesis acerca de la inteligencia, cuatro hipótesis en principio válidas tanto para la inteligencia natural como para la artificial.

Vamos a revisarlas, pero antes conviene explicar algún concepto previo que se adelanta en ese mismo capítulo y sobre los que no resistiré la tentación de hacer alguna traslación, en mi entendimiento, a la inteligencia artificial.


Inteligencia y predicción


Aunque a primera vista pueda sorprender, a poco que se piense en ello, no es tan raro la asociación de inteligencia con la capacidad de hacer predicciones. El poder predecir lo que va a pasar en el entorno, y el ser capaz de predecir lo que nuestras acciones sobre el entorno van a generar, son capacidades básicas para poder planificar y, por tanto, para exhibir un comportamiento más allá de lo puramente reflejo, lo puramente reactivo.

En la fuente citada, además, nos indican no sólo esta asociación, digamos, macroscópica de la inteligencia con la capacidad de predicción sino que, además, nos indica que existen ciertas teorías que afirman que la función primaria del cerebro es, precisamente, hacer predicciones y que, además, internamente se estructura de forma que las capas más externas hacen predicciones sobre la actividad de las capas más internas.

Si trasladamos esta idea a la inteligencia artificial, la verdad es que nos resulta, creo, muy natural, especialmente cuando pensamos en machine learning. Precisamente, y hay definiciones que así lo reflejan, el machine learning 'fabrica' un modelo del mundo durante su entrenamiento que le permite luego hacer predicciones acertadas en fase de inferencia. De hecho, cuando en algún ámbito informático oímos el término 'predictivo', casi seguro estamos ante una solución de machine learning.


Los entornos y las limitaciones de la inteligencia


David Gamez
El cerebro, como se sabe, es un órgano que consume mucha energía. Por tanto, 'intentar' que se capaz de hacer predicciones sobre cualquier cosa, una capacidad casi divina, no sería 'económico'. Por tanto, los seres vivos y en concreto la raza humana ha desarrollado su cerebro de forma que sea capaz de hacer predicciones en ciertos entornos conocidos, donde se ha desarrollado su actividad, obviando de alguna forma el resto. 

En general, en estos entornos, es muy bueno haciendo predicciones. Fuera de esos entornos, su capacidad para generalizar y predecir es mucho más limitada.

En concreto, se dice que el cerebro humano resuelve bien problemas en un entorno 'cazador-recolector' en donde surgió y se desarrolló.

Según esto, el cerebro humano, a pesar de su potencia, es en cierto modo limitado. Nos dice:


human intellect is not adapted for the large majority of conceivable tasks.


Y remata:


Humans, non-human animals, and AI systems have, to a greater or lesser extent, limited abilities to solve problems that they have not encountered before.


Trasladando esto a la inteligencia artificial actual, podemos decir que también el consumo computacional y energético es un problema. Debido en parte a esto, y debido en muchísima mayor medida a nuestras limitaciones actuales en cuanto a algoritmia, está claro que, también, nuestros modelos y sistemas actuales tienen ámbitos limitados de actuación, mucho más limitados que los de un ser humano. 

A pesar de que avances como son los modelos fundacionales permiten un primer paso de generalización, estamos lejísimos de igualar la generalidad de una inteligencia humana, no digamos ya nada de superarla en cuanto a esa generalidad.


Inteligencia cristalizada


La inteligencia cristalizada es una forma de memoria sobre problemas encontrados anteriormente. Con base en ellos, el sistema supuestamente inteligente puede hacer predicciones en situaciones conocidas.

Si lo trasladamos a la inteligencia artificial, en cierto sentido, también existe esa inteligencia cristalizada, aunque quizá aplica una distinción. Cuando la memoria de esos problemas resueltos anteriormente la aporta realmente el humano, el programador o diseñador, lo hace en forma de reglas que a veces son fijas y, en ese caso, normalmente consideramos que estamos fuera del campo de la inteligencia artificial. Cuando esos problemas resueltos anteriormente, se muestran a un algoritmo en fase de entrenamiento (p ej, aprendizaje supervisado) o en base a experiencia (p ej, aprendizaje por refuerzo) sí que hablaríamos de inteligencia artificial.

Sea cual sea la situación, podemos entender que los sistemas inteligentes, de una forma u otra, tienen algo de esa inteligencia cristalizada.


Inteligencia fluida


Se denomina inteligencia fluida a la capacidad de hacer predicciones en situaciones que el sistema en cuestión no se ha encontrado anteriormente. De alguna forma se aplica una deducción más que una inducción.

Bueno, en cierto sentido, también los sistemas inteligentes pueden ser capaces de esta inteligencia fluida. En algunos casos, quizá los menos representativos de la inteligencia artificial actual, porque el sistema dispone de reglas genéricas, como las que se utilizaban en sistemas expertos o como las heurísticas de algoritmos de búsqueda, que le permiten hacer ciertas 'deducciones'.

Quizá, quizá, la capacidad de un algoritmo de machine learning, por ejemplo tipo red neuronal de, tras el entrenamiento, enfrentarse a problemas nuevos en fase de inferencia se podría entender como inteligencia fluida aunque me parece que, en el caso de algoritmos de machine learning, se desdibuja un poco la frontera entre inteligencia cristalizada y fluida, existe un mismo modelo que recoge el 'conocimiento' y que se aplica tanto a situaciones vistas anteriormente como a situaciones nuevas, aunque creo entender que están presentes ambas de alguna manera. 


Las cuatro hipótesis sobre la inteligencia


Bueno, y explicado todo esto, las cuatro hipótesis que nos propone Gamez para una inteligencia, sea ésta natural o artificial, son:


  • Hipótesis 1: La predicción es el componente más importante de la inteligencia.

  • Hipótesis 2: La predicción y la inteligencia son relativos a conjuntos de entornos.

  • Hipótesis 3: La cantidad de inteligencia cristalizada de un sistema varía con el número de predicciones precisas que puede hacer en un conjunto de entornos.

  • Hipótesis 4: La cantidad de inteligencia fluida varía con el ratio positivo de cambios en su inteligencia cristalizada


No sé si esas cuatro hipótesis abarcan 'todo' lo que es la inteligencia, pero sí que parecen hipótesis bastante razonables e incluso casi intuitivas (una vez explicados los conceptos que hay detrás) y parece que, en efecto, las encontramos tanto en la inteligencia natural como en la artificial.


Conclusiones


A pesar de tener experiencia de ella, no es fácil ni definir ni caracterizar de forma rigurosa lo que es la inteligencia. Las cuatro hipótesis de Gamez parecen recoger al menos algunos de los elementos esenciales de la inteligencia, con la virtud añadida de que no resulta difícil visualizarlos tanto en la inteligencia natural como en la artificial.


lunes, 13 de noviembre de 2023

Patrones y significados. La verdadera naturaleza del entendimiento y la cognición

Los algoritmos y las máquinas inteligentes, cada vez parecen exhibir un mayor conocimiento, un mayor entendimiento de la realidad, y esa sensación se ha visto fuertemente incrementada en los últimos meses por los grandes avances en materia, fundamentalmente aunque no únicamente, de procesamiento de lenguaje natural y de información expresada mediante ese lenguaje natural.

Pero ¿es así? ¿De verdad las máquinas cada vez entienden mejor al mundo y a nosotros, los humanos?

Veamos.


La esencia del Machine Learning


Los avances más espectaculares que se han realizado en inteligencia artificial ultimamente, se incluyen dentro del ámbito del machine learning y más específicamente del deep learning.

A grandes rasgos y simplificando un poco, podríamos decir que la esencia del machine learning (y, por tanto, la esencia del deep learning y de gran parte de la inteligencia artificial más avanzada que se hace hoy en día) consiste en detectar patrones en los datos, descubrir las regularidades y relaciones que anidan en ellos de forma que, con base en esos patrones detectados, podamos construir un modelo del mundo (o, más bien, del 'cachito' del mundo a que se refiere la problemática concreta que estemos estudiando) y que podamos utilizar ese modelo del mundo (lo puedan utilizar los algoritmos en realidad) para predecir resultados o comportamientos ante nuevas situaciones que asumimos se comportan conforme a esos mismos patrones.

Y los resultados son en general muy satisfactorios, a veces impresionantes y de aspecto, desde luego, muy inteligente.


Patrones y entendimiento


¿Pero es eso verdadero conocimiento? ¿Tienen los algoritmos y las máquinas inteligentes, al menos las basadas en machine learning, verdadero conocimiento? ¿Entienden realmente lo que están haciendo?

Bueno, puede haber diversas opiniones pero en esencia la respuesta parece ser negativa.

En concreto, en el capítulo firmado por Pentti Haikonen y titulado 'On artificial intelligence, consciousness and robots' incluido dentro del libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella me encuentro esta argumentación de Haikonen en contra:


Pattern detection and classification alone does not constitute understanding.


Es decir, simplemente, la detección de patrones no constituye un verdadero entendimiento de la materia a que afectan dichos patrones, un entendimiento que sí poseemos los humanos, y eso parece alejar a la inteligencia artificial de la inteligencia humana y, quizá, sólo quizá, eso aleja también la posibilidad, en el estado del arte actual, de conseguir una inteligencia artificial general y unas máquinas conscientes porque parece que ambas cosas reclaman un verdadero entendimiento del que ahora carecen.

Según el mismo autor, en la inteligencia artificial no tenemos unas verdadera cognición, además, porque esa cognición debería estar apoyada en significados:


Cognition does not arise from the linking of symbols, it arises from the linking of meanings.


Ya hablamos en el post anterior sobre la problemática de los significados y su fundamentación ('symbol grounding') y cómo actualmente no se está consiguiendo, al menos por el momento y de forma generalizada, a pesar de investigarse en ello, esa fundamentación de significados con base en la experiencia 'sensorial'.


Conclusión


Así que la sensación es que no, que las máquinas no entienden realmente lo que están haciendo y que no parece que con el tipo de tecnologías y algoritmos actuales se pueda conseguir.

Pero no quisiera que esa afirmación fuese una afirmación absoluta, casi ni siquiera una verdadera afirmación porque ya sabemos la capacidad que tienen la ciencia y la tecnología para sorprendernos y el acelerado avance conseguido en los últimos meses y años abren la puerta a casi cualquier cosa.


miércoles, 8 de noviembre de 2023

Significados y el problema del 'symbol grounding' para una auténtica inteligencia y consciencia artificiales

Cuando especulamos sobre una verdadera inteligencia artificial, verdadera en el sentido de que 'entiende' lo que hace, nos enfrentamos al problema de la adquisición de significado y ello nos lleva, a su vez, al problema del fundamentado de los símbolos o 'symbol grounding' problem.

Intento explicar en qué consiste todo esto.


Comportamiento versus entendimiento. El caso de la IA generativa.


Pese a que algunas especulaciones fantasiosas puedan hacer pensar otra cosa, los sistemas actuales de inteligencia artificial o robótica cognitiva no entienden la realidad ni lo que están haciendo. En cierto sentido podríamos decir que su comportamiento es inteligente, a veces muy inteligente, pero que las máquinas en sí mismas no lo son, al menos no en un sentido comparable a una inteligencia humana.

Aunque su comportamiento externo es inteligente, internamente no 'saben' lo que están haciendo, no comprenden realmente la realidad. Quizá en estos momentos tengamos el ejemplo más perfecto de esto en el caso de las soluciones conversacionales de IA generativa del tipo ChatGPT: sus capacidades son asombrosas, sus respuestas y la forma en que las expresan también. Presentan un comportamiento externo inteligente y aparentan entender lo que les decimos, tener un conocimiento casi infinito y responder de forma coherente y adecuada. No siempre, es cierto, pero normalmente sí y, además, en el fondo las personas tampoco damos siempre respuestas coherentes y acertadas. O sea que dicho familiarmente, 'ni tan mal'.

Y sin embargo, sabemos que la respuesta que nos ofrece una solución generativa es de naturaleza básicamente probabilística y de coherencia lingüística: un ChatGPT construye sus respuestas encadenando símbolos lingüísticos (o imágenes) coherentes con el prompt recibido, lo ya generado anteriormente y lo que ha 'aprendido' de la naturaleza del lenguaje humano.

Pero no entiende nada de nada, por más que su respuesta haga pensar otra cosa. Su respuesta es inteligente, la máquina no tanto.


Símbolos y significado


La inteligencia humana, y en cierto sentido la artificial, parecen manejarse, en su expresión más elevada, mediante símbolos, abstracciones de la realidad con un cierto significado. Entre los signos que manejamos, se encuentran de forma prominente los de naturaleza lingüística.

Podemos pensar que una solución de procesamiento de lenguaje natural también utiliza símbolos, las propias palabras o su tokens correspondientes.

En cierto sentido, las representaciones de más bajo nivel, de los datos y las informaciones, que se manejan en sistemas digitales y, en concreto, en las soluciones de inteligencia artificial, podrían, creo, entenderse también como símbolos.

Los seres humanos, no sólo manejamos los símbolos, lingüísticos o no, sino que entendemos lo que significan. Sin embargo, en el caso de la inteligencia artificial, podemos decir que se manejan bien, cada vez mejor, los símbolos, pero sin saber lo que significan.


Hacer entender a las máquinas


¿Cómo hacer que una máquina entienda los símbolos que maneja?

En los primeros sistemas de inteligencia artificial, precisamente los pertenecientes a la denominada inteligencia artificial simbólica, se implementaba la denominada representación de conocimiento que, con base a lógica de predicados, modelos de información (muy parecidos a los modelos entidad-relación propios de las bases de datos relacionales), etc parecía dotar al sistema de conocimiento. En cierto sentido era así, pero creo que eso no puede considerarse un verdadero entendimiento. Lo que esas informaciones aportaban al sistema era orientación sobre símbolos existentes y sus relaciones, no muy lejos conceptualmente de lo que hace un gran modelo de lenguaje actual durante su entrenamiento, pero no me parece que se pueda considerar un auténtico entendimiento.


El problema del diccionario


Si intentamos enseñar a una máquina lo que significa un símbolo con base en otros símbolos que ya maneja la máquina, caemos en lo que se conoce como 'problema del diccionario': un diccionario explica palabras con base en otras palabras. Pero si no llega un momento en que las palabras tienen significado por sí mismas, sin necesidad de definición o explicación mediante diccionario, estamos en un bucle recursivo y casi sin fin de intentar explicar las palabras, símbolos al fin y al cabo, cuyo significado desconocemos, con base en otras, palabras, otros símbolos, cuyo significado también desconocemos.

Se necesita, en algún punto, poder entender un símbolo, una palabra, por sí mismo y con base en la realidad, no explicándola mediante otros símbolos.


Symbol grounding


Y eso nos lleva al problema del 'symbol grounding' que, aunque siempre lo he visto descrito en inglés, me voy a atrever  a traducir como fundamentado de símbolos.

Lo que tiende a decir las teorías cognitivas, es que ese 'symbol grounding' se produce mediante percepción y experiencia de la realidad, con mucha frecuencia la realidad externa percibida mediante nuestros sentidos y procesada por el cerebro. De alguna forma, una forma que creo se desconoce en estos momentos, se asocia una experiencia del mundo real con símbolos que la representan internamente. Esto incluye también auto-percepción, pues nuestro sistema nervioso envía al cerebro sensaciones del propio cuerpo.

Una vez que al menos unos símbolos tiene su significado anclado a la realidad, fundamentado en ella vía experiencia de esa realidad, ya es posible componerlos para conseguir otros símbolos quizá más abstractos.


El caso de los algoritmos y la robótica cognitiva


 ¿Y cómo conseguimos eso en el caso de las máquinas?

No está claro pero, siendo consistentes con la teoría cognitiva, debemos hacer que algunos símbolos los obtenga la máquina a partir de sus sistemas de percepción (sensores y procesamiento posterior), es decir, de su experiencia de la realidad. En el caso de un robot a los que la mayoría de autores les supone en su definición, un cuerpo físico, con sensores y actuadores, parece teóricamente posible conseguir esa experiencia y por tanto esa fundamentación de los símbolos, aunque no creo que haya ninguna realización realmente exitosa en este campo actualmente.

Si existiese esa realización exitosa, estaríamos, creo, en el umbral de conseguir la consciencia de las máquinas.

¿Y en el caso de los algoritmos puros, no robots?

Bueno, esto podría llevarme al debate de si un robot software es un verdadero robot y si tiene cuerpo o no lo tiene. Pero eso sería meterme en 'un jardín' que, para lo que hablamos, poco aporta.

Si suponemos un, digamos, algoritmo puro, sin realización física, al menos en lo que a sensores se refiere, deberíamos pensar, me parece, en alguna forma de transferencia de conocimiento (un 'transfer learning' del que ya se habla en inteligencia artificial y que con tanto éxito se aplica en los denominados modelos fundacionales de la inteligencia artificial generativa), es decir, un robot cognitivo, o máquina similar con implementación física de sensores, debería ser capaz de adquirir el conocimiento, el fundamentado de los símbolos y luego ser transferido (copiado directamente o en la nube) para su uso por otras máquinas.

Hay que decir que según algunas teorías, esa transferencia no sería posible, puesto que, de alguna forma, la experiencia de la realidad, especialmente del propio cuerpo, es propia de cada entidad, viva o, en este caso, artificial. 


En el umbral de las consciencia


Antes decía que conseguir ese anclaje, ese fundamentado de significados nos pondría en el umbral de las conciencia de las máquinas porque, si a esa percepción de la realidad externa, le añadimos la auto-percepción del robot y el symbol grounding correspondiente del propio cuerpo, de la propia realidad, se produciría ese contraste entre la realidad externa, la actuación de la máquina y la realidad interna que está en la base de muchas teorías sobre consciencia.

De todas formas, y como decía, y hasta donde se me alcanza, no se ha conseguido un verdadero éxito, un éxito masivo y generalizable, en el symbol grounding, aunque haya investigación seria sobre ello, y no tengo claro que lo vayamos a conseguir en breve.

Así que no, no parece que hayamos alcanzado el umbral. 


Conclusiones


Se encuentra aún latente y creo que sin resolver, la verdadera asignación de significado por parte de las máquinas a los símbolos que manejas esos sistemas artificiales, algoritmos o robots cognitivo.

Si se consiguiese, dispondríamos de máquinas que realmente entienden lo que hacen y nos podríamos situar en el umbral de una consciencia artificial.

Pero no parece que aún estemos ahí.


lunes, 6 de noviembre de 2023

Categorías de máquinas conscientes

No sabemos, en realidad, si seremos capaces de construir alguna vez máquinas realmente conscientes, no entendemos completamente qué significar ser consciente ni siquiera en el caso de los humanos y no está claro si sería deseable construir máquinas consciente si alcanzásemos la capacidad para hacerlo.


La consciencia de máquinas como disciplina científica.



Igor Aleksander
Sin embargo, como problema científico, técnico y ético se trata de una problemática fascinante y existen esfuerzos, esfuerzos serios, de estudio teórico y de realización de prototipos de máquinas que exhiban algún acercamiento a lo que podría ser una consciencia.

De hecho, y aunque poco conocida, existe una disciplina denominada 'Machine consciousness' (consciencia de máquinas) que se ocupa de estas problemáticas.

Se suele reconocer como padre fundador de la misma a Igor Aleksander, profesor emérito de ingeniería de sistemas neuronales del Imperial College de Londres


Categorías de máquinas conscientes de Igor Aleksander


En el libro 'Computational Approaches to Conscious Artificial Intelligence' editado por Antonio Chella se recoge la aportación de Igor Aleksander quien, en el artículo 'The category of machines that become conscious' que se reproduce también en el libro, aporta una clasificación de máquinas conscientes.

Las categorías propuestas por Aleksander son las siguientes:


  • Máquinas conscientes (CM, 'Conscious Machines'): Un sistema diseñado que es capaz de ser consciente en el sentido de construir unas representaciones internas de la experiencia que son accesibles. Caerían dentro de la denominada inteligencia artificial general fuerte y se corresponderían con la idea de un agente inteligente autónomo capaz de percibir su entorno y realizar acciones de manera autónoma para conseguir sus objetivos y con capacidad para aprender de cara a mejorar su desempeño.

  • Inteligencia Artificial Algorítmica (AAI, 'Algorithmic Artificial Intelligence'): un sistema que se comporta de una forma que se acepta como inteligente y cuyo objetivo principal es ayudar a la inteligencia de entidades vivas.

  • Vida consciente (CL, 'Conscious Life'): sensación de tanto su experiencia pasada, su presente perceptual y su futuro planeado.


A primera vista, la clasificación no me parece del todo limpia en el sentido de que no me parece que se trate de categorías con fronteras diferenciadas sino que aparentemente podrían solaparse.

Tampoco estoy seguro de esas categorías capten realmente lo que entendemos por consciencia (teniendo en cuenta, en cualquier caso, que tampoco somos muy capaces de definirlo).

Sin embargo, prefiero ser prudente. Aleksander es una autoridad y su artículo no es una mera especulación sino que está respaldado por sólida argumentación e incluso cierto modelado matemático.

De momento, simplemente, ahí quedan consignadas las categorías.


Conclusiones


En la apasionante, aunque delicada, investigación de la consciencia y de su eventual consecución en máquinas, algunos de los primeros pasos son definir qué es eso de consciencia y, eventualmente, clasificar las tipologías. 

Eso es lo que hace Aleksander en su artículo, y como tal, parece un esfuerzo loable y clarificador.


miércoles, 1 de noviembre de 2023

Algunas definiciones de consciencia y su traslación a robótica cognitiva

Ya hemos tratado en este blog el interesantísimo aunque elusivo problema de la consciencia, humana y robótica, y también hemos tratado algunos de los modelos computacionales propuestos, incluso algunas experiencias en línea de tratar de conseguir consciencia en robots cognitivos.

En este artículo vuelvo a ello tras haber finalizado no hace mucho la lectura del libro 'Computational Approaches to Conscious Artificial Intelligence' con Antonio Chella como editor.


Definiciones de consciencia. Lo que dicen los diccionarios. 


En él, y como por otra parte no es extraño en un libro de corte científico, lo primero que se intenta, a sabiendas de su dificultad, es definir o al menos centrar qué es exactamente eso de la consciencia. 

Comienza Chella proporcionando una especie de definición, aunque muy introductoria, y que le sirve básicamente para hacer patente la cantidad de análisis, explicaciones y debates que el concepto ha generado a lo largo de los siglos: 


consciousness as its simplest, its sentience and awareness of internal and external existence


Es muy relevante la mención de la sintiencia y la conciencia, pero no entraré en ello en este artículo.

Luego pasa revista a algunas definiciones que se pueden encontrar es diccionarios generalistas. Así, en el Cambridge Dictionary, y siempre según el autor, aparece la siguiente y simple definición:


the state of understanding and realizing something


definición sencilla, válida para 'andar por casa', pero quizá un poco superficial y algo alejada de los debates profundos. 

Luego nos menciona la de The Oxford Living Dictionary que, en realidad, nos aporta tres acepciones, a saber:


The state of being aware of and responsive to one's surroundings.

A person's awareness of perception of something.

The fact of awareness by the mind of itself and the world.


En estas dos fuentes identifica Chella un elemento común, a saber, la conciencia que rodea al objeto consciente y del objeto en él.

Luego revisa la definición del Webster's Third New International Dictionary, que no voy a transcribir aquí por ser ya bastante larga pero que aporta, de nuevo según Chella, la formación de estados mentales a menudo vistas como 'resultado de emociones, voliciones o pensamiento'.


Definiciones de consciencia. Lo que dicen los filósofos.


Tras esta revisión de definiciones encontradas en diccionarios, el autor torna sus ojos hacia la filosofía y resume las materias que los mismos han incluido en esa idea de consciencia en estos puntos:


  • Introspección, conocimiento general y experiencia fenomenológica

  • Existe algo que podríamos decir 'Cómo es ser ese ente' (una idea que, en el fondo me cuesta entender, pero que entiendo proviene del muy famoso artículo de 'What it is like to be a batde Thomas Nagel.

  • Experiencias de tipo perceptual, sensación corporal, imaginativas o flujos de pensamientos.


Un modelo


Tras ello, el autor no puede por menos que volver a reconocer la dificultad de especificar qué es la conciencia y nos dice


Consciousness is a fascinating but elusive phenomenon: it is impossible to specify what it is, what it does, or why it has evolved.


No obstante, nos ofrece un modelo, con cinco elementos, basado en la Routeledge Dictionary Encyclopedia of Philosophy y que sería el siguiente:



Según interpreto, el modelo, que ofrece una visión circular, empezaría por la existencia de un entorno del eventual ente consciente, un entorno del cual el ente (que parece sugerir un ser humano, o al menos un ser vivo) recibe a través de sus sentidos, sensaciones que, tras un proceso de reconocimiento se convierten en percepciones y eso lleva a unas impresiones lo que conduce, finalmente a una conciencia del objeto.


Traslación a robótica cognitiva. Comentarios.


Trasladar este modelo a un robot parece casi, y esto es sorprendente, sencillo: los robots tienen sensores a través de los cuales perciben su entorno, y mediante algoritmia complementaria convierten la información recibida en verdaderas percepciones. Parece perfectamente factible con base en esas sensaciones conseguir una cierta representación del conocimiento acerca del entorno (el equivalente, entiendo, a las impresiones del modelo). Y un robot podría, creo que fácilmente 'tener conciencia' de esas impresiones y usarlas en su propio control y el del entorno.

Dicho así, parecería que la consciencia robótica no sólo es posible sino que prácticamente ya la tenemos a nuestro alcance. Y, sin embargo, creo que estamos muy lejos de que sea así. Parece que falta algo más, puede que mucho más.

Por otro lado, es posible que no esté interpretando el modelo correctamente, dado que tengo poco más que el dibujo que muestro, pero a priori hay algo que me sorprende en la propuesta: parece que la toma de conciencia del ente (persona o robot) depende de la percepción, representación y control del entorno.

Y sin embargo, todas las teorías de consciencia que creo haber leído hasta ahora, ponen el énfasis no sólo en la percepción del exterior, sino en la propia autopercepción, la experimentación del propio cuerpo de forma parecida a como se experimenta el entorno, y el contraste, dialéctica o relación del propio cuerpo y sus acciones con el exterior. De hecho, parece que de ese contraste, de esa interacción es, según algunas teorías, de donde nace la consciencia. 

No veo en el dibujo, ni ese contraste ni la autopercepción, que tanto tiene que ver con la idea intuitiva que tenemos de la consciencia.


Conclusión


Es bastante probable que mi entendimiento del modelo sea incompleto o imperfecto y que sí se encuentre de alguna forma, implícita, la autopercepción pero, de todas formas, lo que el recorrido por las definiciones de consciencia que acabamos de ver, junto con la sorpresa sobre el modelo, no hacen más que resaltar, de nuevo, la dificultad no ya solo de definir lo que es la consciencia sino de entenderla realmente en profundidad.

Un problema para conseguir resultados prácticos en psicología, neurociencia o robótica, pero un aliciente más para su estudio.


Artículos de este blog relacionados