Cuando especulamos sobre una verdadera inteligencia artificial, verdadera en el sentido de que 'entiende' lo que hace, nos enfrentamos al problema de la adquisición de significado y ello nos lleva, a su vez, al problema del fundamentado de los símbolos o 'symbol grounding' problem.
Intento explicar en qué consiste todo esto.
Comportamiento versus entendimiento. El caso de la IA generativa.
Pese a que algunas especulaciones fantasiosas puedan hacer pensar otra cosa, los sistemas actuales de inteligencia artificial o robótica cognitiva no entienden la realidad ni lo que están haciendo. En cierto sentido podríamos decir que su comportamiento es inteligente, a veces muy inteligente, pero que las máquinas en sí mismas no lo son, al menos no en un sentido comparable a una inteligencia humana.
Aunque su comportamiento externo es inteligente, internamente no 'saben' lo que están haciendo, no comprenden realmente la realidad. Quizá en estos momentos tengamos el ejemplo más perfecto de esto en el caso de las soluciones conversacionales de IA generativa del tipo ChatGPT: sus capacidades son asombrosas, sus respuestas y la forma en que las expresan también. Presentan un comportamiento externo inteligente y aparentan entender lo que les decimos, tener un conocimiento casi infinito y responder de forma coherente y adecuada. No siempre, es cierto, pero normalmente sí y, además, en el fondo las personas tampoco damos siempre respuestas coherentes y acertadas. O sea que dicho familiarmente, 'ni tan mal'.
Y sin embargo, sabemos que la respuesta que nos ofrece una solución generativa es de naturaleza básicamente probabilística y de coherencia lingüística: un ChatGPT construye sus respuestas encadenando símbolos lingüísticos (o imágenes) coherentes con el prompt recibido, lo ya generado anteriormente y lo que ha 'aprendido' de la naturaleza del lenguaje humano.
Pero no entiende nada de nada, por más que su respuesta haga pensar otra cosa. Su respuesta es inteligente, la máquina no tanto.
Símbolos y significado
La inteligencia humana, y en cierto sentido la artificial, parecen manejarse, en su expresión más elevada, mediante símbolos, abstracciones de la realidad con un cierto significado. Entre los signos que manejamos, se encuentran de forma prominente los de naturaleza lingüística.
Podemos pensar que una solución de procesamiento de lenguaje natural también utiliza símbolos, las propias palabras o su tokens correspondientes.
En cierto sentido, las representaciones de más bajo nivel, de los datos y las informaciones, que se manejan en sistemas digitales y, en concreto, en las soluciones de inteligencia artificial, podrían, creo, entenderse también como símbolos.
Los seres humanos, no sólo manejamos los símbolos, lingüísticos o no, sino que entendemos lo que significan. Sin embargo, en el caso de la inteligencia artificial, podemos decir que se manejan bien, cada vez mejor, los símbolos, pero sin saber lo que significan.
Hacer entender a las máquinas
¿Cómo hacer que una máquina entienda los símbolos que maneja?
En los primeros sistemas de inteligencia artificial, precisamente los pertenecientes a la denominada inteligencia artificial simbólica, se implementaba la denominada representación de conocimiento que, con base a lógica de predicados, modelos de información (muy parecidos a los modelos entidad-relación propios de las bases de datos relacionales), etc parecía dotar al sistema de conocimiento. En cierto sentido era así, pero creo que eso no puede considerarse un verdadero entendimiento. Lo que esas informaciones aportaban al sistema era orientación sobre símbolos existentes y sus relaciones, no muy lejos conceptualmente de lo que hace un gran modelo de lenguaje actual durante su entrenamiento, pero no me parece que se pueda considerar un auténtico entendimiento.
El problema del diccionario
Si intentamos enseñar a una máquina lo que significa un símbolo con base en otros símbolos que ya maneja la máquina, caemos en lo que se conoce como 'problema del diccionario': un diccionario explica palabras con base en otras palabras. Pero si no llega un momento en que las palabras tienen significado por sí mismas, sin necesidad de definición o explicación mediante diccionario, estamos en un bucle recursivo y casi sin fin de intentar explicar las palabras, símbolos al fin y al cabo, cuyo significado desconocemos, con base en otras, palabras, otros símbolos, cuyo significado también desconocemos.
Se necesita, en algún punto, poder entender un símbolo, una palabra, por sí mismo y con base en la realidad, no explicándola mediante otros símbolos.
Symbol grounding
Y eso nos lleva al problema del 'symbol grounding' que, aunque siempre lo he visto descrito en inglés, me voy a atrever a traducir como fundamentado de símbolos.
Lo que tiende a decir las teorías cognitivas, es que ese 'symbol grounding' se produce mediante percepción y experiencia de la realidad, con mucha frecuencia la realidad externa percibida mediante nuestros sentidos y procesada por el cerebro. De alguna forma, una forma que creo se desconoce en estos momentos, se asocia una experiencia del mundo real con símbolos que la representan internamente. Esto incluye también auto-percepción, pues nuestro sistema nervioso envía al cerebro sensaciones del propio cuerpo.
Una vez que al menos unos símbolos tiene su significado anclado a la realidad, fundamentado en ella vía experiencia de esa realidad, ya es posible componerlos para conseguir otros símbolos quizá más abstractos.
El caso de los algoritmos y la robótica cognitiva
¿Y cómo conseguimos eso en el caso de las máquinas?
No está claro pero, siendo consistentes con la teoría cognitiva, debemos hacer que algunos símbolos los obtenga la máquina a partir de sus sistemas de percepción (sensores y procesamiento posterior), es decir, de su experiencia de la realidad. En el caso de un robot a los que la mayoría de autores les supone en su definición, un cuerpo físico, con sensores y actuadores, parece teóricamente posible conseguir esa experiencia y por tanto esa fundamentación de los símbolos, aunque no creo que haya ninguna realización realmente exitosa en este campo actualmente.
Si existiese esa realización exitosa, estaríamos, creo, en el umbral de conseguir la consciencia de las máquinas.
¿Y en el caso de los algoritmos puros, no robots?
Bueno, esto podría llevarme al debate de si un robot software es un verdadero robot y si tiene cuerpo o no lo tiene. Pero eso sería meterme en 'un jardín' que, para lo que hablamos, poco aporta.
Si suponemos un, digamos, algoritmo puro, sin realización física, al menos en lo que a sensores se refiere, deberíamos pensar, me parece, en alguna forma de transferencia de conocimiento (un 'transfer learning' del que ya se habla en inteligencia artificial y que con tanto éxito se aplica en los denominados modelos fundacionales de la inteligencia artificial generativa), es decir, un robot cognitivo, o máquina similar con implementación física de sensores, debería ser capaz de adquirir el conocimiento, el fundamentado de los símbolos y luego ser transferido (copiado directamente o en la nube) para su uso por otras máquinas.
Hay que decir que según algunas teorías, esa transferencia no sería posible, puesto que, de alguna forma, la experiencia de la realidad, especialmente del propio cuerpo, es propia de cada entidad, viva o, en este caso, artificial.
En el umbral de las consciencia
Antes decía que conseguir ese anclaje, ese fundamentado de significados nos pondría en el umbral de las conciencia de las máquinas porque, si a esa percepción de la realidad externa, le añadimos la auto-percepción del robot y el symbol grounding correspondiente del propio cuerpo, de la propia realidad, se produciría ese contraste entre la realidad externa, la actuación de la máquina y la realidad interna que está en la base de muchas teorías sobre consciencia.
De todas formas, y como decía, y hasta donde se me alcanza, no se ha conseguido un verdadero éxito, un éxito masivo y generalizable, en el symbol grounding, aunque haya investigación seria sobre ello, y no tengo claro que lo vayamos a conseguir en breve.
Así que no, no parece que hayamos alcanzado el umbral.
Conclusiones
Se encuentra aún latente y creo que sin resolver, la verdadera asignación de significado por parte de las máquinas a los símbolos que manejas esos sistemas artificiales, algoritmos o robots cognitivo.
Si se consiguiese, dispondríamos de máquinas que realmente entienden lo que hacen y nos podríamos situar en el umbral de una consciencia artificial.
Pero no parece que aún estemos ahí.