miércoles, 18 de junio de 2025

Hablemos de agentes (I): concepto, contexto y tres características esenciales

No cabe duda de que los agentes, y la agentic AI es uno de los 'buzzwords' de los pasados meses y muy probablemente de los venideros. 

Se trata de un tema que me interesa sobremanera, aparte de su interés intrínseco y como tendencia tecnológica, por su potencial, por las conexiones con los mecanismos cognitivos y por su eventual traslado a la robótica.

Como parte de la labor de estudio e investigación sobre el particular iniciada ya hace un tiempo, hace unos pocos días terminé la lectura del libro 'Building Agentic Ai systems' de  Anjanava Biswas y Wrick Talukdar, libro que debo decir que ha superado mis expectativas (reconozco que inicialmente no eran muy altas) y que me inspira a iniciar una serie de posts con algunos de los aspectos que en esa fuente se tratan.

En este primer post de la serie (que no tengo claro en este momento cuántos artículos incluirá),no voy a profundizar mucho, todavía, en las ideas de ese libro sino que voy a hacer primero un breve recordatorio del significado de lo que es un agente y cómo se sitúa en el contexto de la psicología, la filosofía, la inteligencia artificial y la robótica, para luego apuntar, de nuevo brevemente qué es eso de la Agentic AI y qué trae de nuevo en esta idea de agentes. Hecha esta introducción, enunciaré, sólo enunciaré, las tres características que los autores de la obra mencionada consideran esenciales en un agente.


A modo de pequeña introducción histórica: ¿Qué es un agente?


Creo haberlo ya hecho en algún post anterior, pero retomo brevemente la idea de lo que es un agente. Y lo hago recordando, de nuevo, que el concepto de agente es antiguo, bastante antiguo, y que se ha aplicado en entornos muy diferentes como el psicológico y filosófico (en cierto sentido incluso legal) y que, no sólo eso, sino que también su uso en inteligencia artificial y en robótica viene de bastantes años atrás

El término agente proviene del Latín 'agere' que es algo así como hacer. En cierto sentido es, simplemente, una entidad capaz de actuar.

Pero, claro, aunque esa es la etimología, encierra un poco más. La idea viene a ser que esa entidad, es capaz de reconocer el mundo que le rodea y actuar sobre él y, además, de alguna manera, en esa actuación hay alguna forma de lógica, de voluntad, de persecución de objetivos.


El ser humano como agente


Para que quede claro: el concepto de agente es previo a la tecnología y, de hecho, el 'agente' más típico, casi paradigmático, es el propio ser humano.

El ser humano percibe el mundo que le rodea mediante sus sentidos y lo comprende mediante su cerebro. El ser humano puede actuar físicamente sobre el entorno usando su propio cuerpo (sus manos, sus piernas, etc), apoyándose en el uso de herramientas o, incluso, puede actuar indirectamente influyendo en otros mediante, por ejemplo, la palabra. 

Y esa actuación del ser humano está regida por la voluntad, por la decisión.

El ser humano, es el paradigma de agente. 


Los agentes, la ética y la ley


Y esa idea del ser humano es muy importante desde hace siglos en el campo de la ética. Y, así, se habla de un agente moral cuando ese agente es capaz de entender las implicaciones de sus actos, valorarlos desde el punto de vista ético y decidir en consecuencia.

Importante en esta idea del agente moral es ese entendimiento de la consecuencia de los actos y también la autonomía y la independencia para decidir cómo actuar. Esa independencia y autonomía en la decisión nos lleva a la idea del ejercicio de una voluntad y la asunción de una responsabilidad.

Si echamos un vistazo muy somero a la aplicación de las leyes, vemos que esta idea de la agencia moral y, sobre todo de la independencia y autonomía en la decisión (vamos a decir la responsabilidad), es fundamental a la hora de decidir culpabilidades y posibles condenas. Es por eso, que se considera un atenuante la enajenación mental transitoria, porque se supone que el eventual delincuente, en el momento de realizar su acto delictivo no era consciente de lo que estaba haciendo,  no entendía las consecuencias de sus actos, no estaba decidiendo realmente por su propia voluntad y, por tanto, no era responsable de sus actos o no plenamente responsable.


Los agentes y los robots


Pero ¿esto tiene algo que ver con la inteligencia artificial y los robots?

Pues si. Mucho.

De hecho, autores como Russell y Norvig, en su afamado libro 'Artificial Intelligence: A modern approach' estructuran su definición de inteligencia artificial en torno a la idea de los agentes.

Igualmente, y aunque la definición del término robot es confusa y discutida, probablemente una de las mejores formas de entender lo que es un robot, es trabajando desde el concepto de agente. En el post 'Una nueva especie robótica: los agentes' recordaba la explicación que yo mismo daba en mi libro 'Robots en la sombra' de lo que es un robot y que parte de la idea de agente:


Los robots como agentes

Los robots son una forma de agente. Se trata de entidades que capturan información sobre el mundo que les rodea usando sus sensores. De alguna forma entiende, al menos lo suficiente, ese entorno por un análisis de la información obtenida de los sensores y procesada, a veces, mediante inteligencia artificial. Además, son capaces de actuar sobre ese entorno: disponen de sus 'efectores', de sus elementos terminales para la actuación física directa, y algunos robots, por ejemplo los robots sociales, son capaces de utilizar el lenguaje y la voz para la influencia indirecta en ese entorno. Y la conexión entre lo que el robot percibe sobre su entorno y cómo actúa sobre él no es arbitraria sino que se ciñe a alguna forma de reglas o 'razonamiento' que hace que actúen para alcanzar sus objetivos o cumplir con su misión.

Sería 'meternos en un charco' el intentar hablar de voluntad en el caso de un robot. Pero lo que no cabe duda es que hay coherencia, hay dirección y hay alguna forma, aunque sea básica, de inteligencia en su comportamiento.

Como defendía en mi libro 'Robots en la sombra', esta idea no sólo se puede aplicar a los robots normales, los robot físicos, sino también a los robots software como robots RPA o agentes conversacionales.


La Agentic AI


Y esto nos deja ya a las puertas de la Agentic AI y de los 'nuevos agentes' de que hablamos ahora.

Como hemos visto la idea de 'agente' no es nueva y, en cierto sentido, se la apropia inadecuadamente la nueva 'Agentic AI' como si fuera algo por ella inventado.

Los agentes de que nos habla la Agentic AI son, en efecto, agentes, una clase de agentes. Hablamos de unos programas o módulos software que se construyen alrededor de un gran modelo de lenguaje (prefiero casi decir de un modelo fundacional, porque va más allá del lenguaje), pero un modelo avanzado de los denominados razonadores que son capaces de crear sus propios planes de acción y modificarlos dinámicamente. Además, son capaces de interactuar con el exterior usando lo que se denominan 'herramientas', entre las que se puede incluir la invocación de cualquier API o el uso de cualquier conector.

Se trata unos agentes software (yo diría que unos robots software) con una características avanzadas y que yo entiendo como una especie de fusión conceptual entre RPA y un chatbot generativo.

Los robots RPA ya son capaces de interactuar directamente el el exterior mediante APIs y conectores, o accediendo directamente a pantallas o documentos. Como explicaba en 'La hibridación de los robots software: agentes frente a RPA y robots conversacionales', los agentes de la agentic AI se parecen en muchos sentidos a los robots RPA pero cambian un ingrediente fundamental: si en los robots RPA su lógica de actuación, digamos su cerebro, está 'grabada a fuego' en tiempo de desarrollo y se basa en reglas traducidas a flujos, en el caso de los agentes de la Agentic AI, la actuación se decide en tiempo de ejecución, la decide el propio agente y se implementa con modelos fundacionales razonadores, no mediante reglas ni flujos.

Y frente a un chatbot generativo, como ChatGPT, que ya use modelos razonadores, lo que traen de nuevo los agentes es, fundamentalmente, la capacidad de interacción con el exterior mediante herramientas.

Los nuevos agentes de la Agentic AI, pues, a nivel conceptual no traen tanto de nuevo y son una especie de fusión entre un chatbot generativo y un robot RPA.

Sin embargo, eso que dicho así parece una evolución pequeña, no lo es. No es pequeña en absoluto. La potencia de estos modelos razonadores (que, por tanto, razonan de forma compleja y dinámica y por sí mismos) unida a la capacidad de interacción con el exterior, nos lleva a unos módulos software autónomos, capaces de 'decidir por sí mismos' qué pasos dar para conseguir el objetivo que tienen encomendado y seleccionar dinámicamente las herramientas que necesitan para hacerlo.

Casi una revolución.


Tres características de un agente


Tras esta introducción a lo que es un agente en general, y en la Agentic AI en particular, de momento sólo enunciar, y lo desarrollaremos en futuros posts, las tres características esenciales que los autores citados al principio, identifican como esenciales para un agente (de la Agentic AI). Son las siguientes:


  • Auto-gobierno ('self-governance'): La capacidad de la entidad para controlarse a sí misma sin dirección o control externo.

  • Agencia ('agency'): Capacidad de actuar independiente y, sobre todo, de elegir.

  • Autonomía ('autonomy') muy relacionada con la agencia, pero más centrada en identificar el nivel de independencia que la entidad, el agente, posee.


Desarrollaremos un poco más cada uno de estos tres puntos en futuros posts, pero no dejo de llamar la atención de que, aunque se van a referir a agentes de la Agentic AI, tanto el propio término utilizado, como el concepto en sí mismo, enlaza perfectamente con la idea de agente en general e, incluso, con el agente paradigmático que es el ser humano.


Conclusiones


El concepto de agente es muy antiguo y se ha aplicado desde hace siglos en filosofía, ética o psicología y desde hace años en inteligencia artificial y robótica. Los nuevos agentes, los agentes de que nos habla la Agentic AI, son módulos software regidos por modelos fundacionales razonadores, con capacidad por tanto para elaborar y modificar sus propios planes de acción, y además con acceso a un amplio y creciente catálogo de herramientas que les permiten entender y, sobre todo, actuar sobre su entorno.

Eso nos conduce a unos muy potentes programas autónomos, 'inteligentes' y con capacidad de decisión y actuación (que es lo que, en el fondo, significa ser agente).


miércoles, 11 de junio de 2025

Human-Robot Interaction y los posibles modelos emocionales

Uno de los temas que más llaman la atención cuando hablamos de interacción con las máquinas, y muy especialmente con los robots, es todo lo que tiene que ver con las emociones: la detección de las emociones humanas por parte del robot, la expresión de emociones por parte de ese mismo robot y, si queremos ir muy lejos (probablemente demasiado lejos), la posibilidad de que alguna vez el robot pueda experimentar sus propias emociones.

Se trata de un tema que además, personalmente me fascina, tanto en su vertiente técnica como en sus implicaciones éticas. 

Uniendo algunas lecturas (y docencias) recientes que tienen que ver tanto con la disciplina del human-robot interaction como con inteligencia artificial generativa y agentes conversacionales, he creído detectar una evolución, una posible evolución que intuyo, pero que tengo pendiente de confirmar, que supone un cierto cambio de paradigma en el tratamiento de las emociones por parte de los robots.

Un cambio de paradigma que, en el fondo, simplemente trasladaría al mundo de la robótica social un cambio que ya se está produciendo en chatbots o agentes conversacionales.

Vayamos paso a paso.


Human-Robot Interaction


La relación robots-personas (HRI, 'Human-Robot Interaction') es una disciplina que auna conocimientos procedentes del campo de la robótica y la inteligencia artificial, pero también de la psicología o la antropología, y que se ocupa del estudio de la interacción entre personas y robots y del diseño de los mejores robots y mecanismos de interacción.

Tiene en cuenta cosas como, por supuesto, el lenguaje verbal, pero también el no verbal, la proxémica, las convenciones sociales y... si, la detección y gestión de emociones, donde se solaparía con la así llamada computación afectiva ('affective computing').


Gestión de emociones


Podríamos decir que, a la hora de gestionar emociones por parte de un robot, se podrían distinguir como tres fases, o tres dinámicas, interrelacionadas pero distinguibles:

  • Detección de emociones en los humanos
  • Experimentación de las propias emociones por parte del robot
  • Expresión de emociones por parte del robot

De las tres anteriores, la segunda, experimentación de emociones por el propio robot, hoy en día es una pura fantasía, así que no nos detendremos más en ella.

Sí que son relevantes, y con importantes resultados tangibles, las otras dos: la detección de las emociones humanas por parte del robot y la expresión de unas emociones propias del robot (aunque se trate de emociones impostadas, no sentidas).


Modelado de emociones


Ya desde hace décadas, y de manera con frecuencia independiente al tratamiento mediante máquinas, en el campo de la psicología se han venido analizando e intentando modelar las emociones.

Uno de los primeros y más populares resultados fueron los hallazgos de Paul Ekman quien identificó las conocidas seis emociones básicas (alegría, ira, miedo, asco, sorpresa, tristeza) que eran reconocibles a partir de la expresión y que trascendían las culturas.


Expresiones faciales correspondientes a las seis emociones básicas

Posteriormente, Ekman amplió su catálogo a quince. Se trata de unos hallazgos no siempre bien interpretados o utilizados pero que, a efecto de HRI, me interesa destacar que permite la identificación de emociones a partir de expresiones faciales y que el resultado es una categoría de entre un número finito disponible de emociones.

El propio Ekman propuso posteriormente otro modelo en que, más que recoger expresiones faciales completas, se centraba en diversos detalles. Definía el Facial Action Coding System (FACS) donde se identificaban las AU ('Action Units') en número de varias decenas.


FACS

Estas action units se pueden reconocer visualmente o, en laboratorio, mediante medida de actividad muscular. Aunque no conducen de forma inmediata a una categorización de emoción, existen guías complementarias que sí lo hacen

En ambos casos, al final podemos llegar a una emoción como una etiqueta, de entre un conjunto finito de ellas, que caracteriza el estado emocional del ser humano.

Existen otros modelos que, trabajan es espacios continuos, bidimensionales (como el modelo circunflejo de Russell) o tridimensionales, y donde algunas de las variables de ese espacio suelen ser la denominada excitación ('arousal') que, de alguna forma, mide la intensidad de la emoción, y la valencia ('valence') que indica si se trata de una emoción más positiva o más negativa. 


Modelo circunflejo de Russell

Otros modelos, en este caso tridimensionales, como PAD, usado por el mítico robot Kismet, añade una dimensión de dominancia.

Aunque en estos modelos de emociones existe una continuidad, y no unas categorías cerradas, tampoco nos alejamos demasiado de esa visión de emociones como un catálogo de posibilidades, como se puede ver en la propia figura. De alguna manera, regiones de ese espacio de estado se corresponden con una emoción


Detección de emociones


Los robots detectan las emociones humanas tomando, en primer lugar, alguna forma de medida de su manifestación externa en los humanos, mediante sensores. Los dos más comunes, y probablemente al mismo tiempo los más potentes y ricos en información, son las cámaras (que permiten captar, fundamentalmente la expresión del rostro humano, pero también sus gestos y otros elementos de lenguaje no verbal) y los micrófonos que captan la voz incluyendo los elementos prosódicos como intensidad, acento, etc.

Sólo con esos dos tipos de sensores, tan familiares en todo tipo de aplicaciones, los robots obtienen casi toda la información que necesitan. Existen otros sensores, más especializados, pero ahora no profundizaré en ellos.

El caso es que, mediante los sensores, los robots tienen la información primaria sobre las emociones expresadas por el humano.

Desde ahí, la conclusión de la emoción subyacente y si nos basamos en un catálogo de emociones como el propuesto en su momento por Ekman,  se puede reducir a un problema de clasificación, tan común en el machine learning y deep learning.

Si utilizamos un espacio de estados, parece que hay un primer paso de regresión, para situar el estado emocional del humano en las características de ese espacio de estados, y luego, si queremos 'darle nombre' a la emoción, un problema de clasificación adicional casi trivial (que no precisa siquiera de inteligencia artificial) para asignar la emoción subyacente según la región en que nos encontremos.


Chatbots basados en reglas


Establecidas esas fases, paso ahora a comentar la evolución de los chatbots. Los chatbots de los que hemos dispuesto hasta hace poco, antes de la explosión de los modelos generativos, se han venido construyendo en general implementando un modelo de conversación que ya explicaba en mi libro 'Robots en la sombra' y que se muestra en la figura:


Modelo de conversación

En ese modelo, las intenciones ('intents') son una forma de categorización de lo que el usuario puede pedir al chatbot (reserva de cita, compra de un billete de avión, conocimiento sobre un producto, etc). Eso sí, como trabajamos en lenguaje natural esas intenciones se pueden manifestar verbalmente con expresiones ('utterances') diferentes e incluso muy diferentes. Asociada a cada interacción el humano suele añadir información en forma de parámetros o entidades como ciudades, personajes etc.

La labor donde interviene la inteligencia artificial en ese tipo de chatbot es, en primer lugar, en la conversión voz-texto (en caso de que interactuemos de viva voz) y, sobre todo, en la detección de la intención y la extracción e entidades a partir de la expresión del usuario. Este último problema, la detección de la intención, se trataría claramente de un problema de clasificación.

A partir de ahí, el resto de cosas (consulta o interacción con servicios o sistemas externos) e incluso emisión de la respuesta, sucede sin usar la inteligencia artificial y procede de configuraciones o desarrollos realizados por el desarrollador del chatbot. Sólo se añade inteligencia artificial en la eventual conversión texto-voz para contestar al usuario de viva voz.

Este tipo de chatbots hoy en día tienden a denominarse como 'basados en reglas' porque, en efecto, es el desarrollador el que establece, para una intención dada, qué sistemas o servicios deben consultarse o invocarse y qué respuesta corresponde a esa intención.


Comportamiento emocional de robots basado en reglas


Aunque confieso que me falta información técnica de detalle, y aunque puede variar de modelo de robot a modelo de robot, intuyo que los robots sociales que manejan emociones funcionan de una manera parecida a como lo hacen estos chabots.

Es decir, a partir de la información de los sensores (pensemos por ejemplo la cámara), detectan la emoción subyacente en el humano mediante la aplicación de un algoritmo de clasificación. A partir de ahí, se desencadena la respuesta del robot: qué información debe consultar, qué emoción debe expresar el propio robot (en caso de que tenga capacidad para ello) y qué debe contestar al humano.

Y sospecho que todo lo que tiene que ver con los pasos posteriores a la detección de la emoción, está fundamentalmente basado en algún tipo de reglas no muy diferentes a las que emplean los chatbots.


Chatbots basados en modelos generativos


Volvamos a los chatbots, pero para ver cómo cambia la cosa con los modelos generativos.

Cuando usamos un chatbt basado en un modelo generativo, un modelo fundacional o un gran modelo de lenguaje, la cosa funciona de manera muy diferente: no existe un distinción tan nítida entre la entrada y saluda, y no se clasifican los deseos del usuario en intenciones, sino que se trata su entrada (su 'prompt') en su conjunto, sin clasificar y, sobre todo, el propio modelo genera la respuesta, que no se basa en ningún tipo de regla aunque sí se puede realizar un cierto condicionamiento.

Las dos cosas más relevantes que cambian son, pues, que es que el modelo, la inteligencia artificial, funciona extremo a  extremo, en entrada, salida y procesamiento. Y, además, que no existe clasificación en intenciones.


Computación afectiva basada en modelos generativos. Los modelos emocionales


Visto lo anterior, y dada la posibilidad cierta (de hecho, seguro que ya se está haciendo) de que los nuevos robots se apoyen en sus aspectos verbales en modelos de lenguaje generativos, parece más que probable (aunque no tengo noticias de ello, apostaría a que ya alguna empresa o laboratorio está en ello) que en los aspectos de la computación afectiva se utilicen también este tipo de modelos.

Si eso fuese así, parece que perderían sentido la clasificación de emociones en categorías cerradas (igual que en los chatbots pierde sentido categorizar las intenciones) y, no sólo eso, lo más importante es que la respuesta del robot, incluyendo sus aspectos emocionales, se crearían por el propio modelo (no por unas reglas).

Aunque entiendo que esos es técnicamente viable desde ya mismo, calculo que se debe realizar un entrenamiento, (un más que probable 'fine-tunning') para conseguir un buen funcionamiento de estos 'modelos emocionales'.

Como digo, no puedo afirmar taxativamente que esto que indico este sucediendo, pero tengo una casi completa seguridad de que sí, y de que, probablemente,  veremos cosas en este sentido a no mucho tardar, quizá ligado al campo emergente de la así llamada 'embodied AI'.


Conclusiones


La llegada de los modelos generativos y su eventual inclusión en robots sociales, puede cambiar el paradigma de cómo se gestionan las emociones humanas en los robots, pasando de un modelo más basado en reglas, a un modelo extremo a extremo, sin clasificación de emociones y apoyado en lo que podríamos denominar un 'gran modelo emocional'.


lunes, 9 de junio de 2025

¿Está el pensamiento crítico al alcance de la inteligencia artificial?

No sé si la pregunta es muy tópica o muy oportuna, pero el caso surgió en mi mente hace muy pocos días, durante la presentación de un libro, y me dije que tenía que convertir mis reflexiones en un post para este blog


Un mínimo de contexto


El evento en cuestión era la presentación del libro 'IA KAN: la inteligencia artificial hecha relato' de Javier Barraca, una novela de ciencia ficción sobre la inteligencia artificial con trasfondo filosófico, y un libro del que seguro tendré ocasión de publicar algo en su momento.

El caso es que, durante la conversación / debate final, se planteó el típico asunto de qué es plenamente humano y dónde no llegará la inteligencia artificial. Entre las respuestas, un miembro de la mesa, Jaime Guibelalde aludió al pensamiento crítico.

Y una chispa, o mejor una pregunta, saltó en mi cerebro. ¿Seguro? ¿Seguro que el pensamiento crítico está fuera del alcance de la inteligencia artificial?

Surgió en mi cerebro la pregunta... y una primera respuesta, una primera intuición. 

Y me dije que tenía que pensarlo un poco mejor, o mejor aún, escribir este post porque para mi, en muchas ocasiones, escribir es casi una forma de pensar o al menos de ordenar el pensamiento.


Pensamiento crítico


Claro, lo primero es clarificar de qué estamos hablando cuando hablamos de pensamiento crítico porque creo que, con frecuencia, se menciona el pensamiento crítico de una forma laxa.

Diría que hay dos partes o dos visiones en el pensamiento crítico: el pensamiento crítico como actitud y el pensamiento critico como disciplina.

Cuando me refiero al pensamiento crítico como actitud, lo hago en el sentido de un talante o una predisposición a no dar por buenos de primeras noticias, discursos y argumentos, sino someterlos a una suerte de juicio crítico. Y también a mantener una postura de pensamiento propia. Muchas veces creo que cuando se alude al pensamiento crítico, la cosa se queda aquí, en la actitud, en no escuchar y conformarse sino poner en tela de juicio. No está mal, pero me parece muy reduccionista.

Tienes que haber algo más... y lo hay. En el pensamiento crítico como disciplina se aplican técnicas y conocimientos. Muchos son sus elementos pero, los más relevantes tienen que ver con la verificación lógica (el argumento sometido a crítica respeta o no las leyes de la lógica) y la detección de sesgos cognitivos que pueden afectar inconscientemente tanto al discurso sometido a crítica como a la propia persona que ejecuta el análisis crítico. Probablemente hoy en día, habría que añadir, también, la mera verificación de datos y afirmaciones porque, parece que, a veces con intención, a veces sin ella, se deslizan demasiadas falsedades en el discurso público.


El turno de la inteligencia artificial


Establecido el campo de juego abordo ahora la pregunta: ¿está el pensamiento crítico al alcance de la inteligencia artificial o es una cualidad inherentemente humana y que siempre estará fuera del perímetro  de posibilidades de la inteligencia artificial?


La parte fácil de la respuesta


Si enfocamos el pensamiento crítico como 'actitud', la cosa resulta fácil de contestar: la inteligencia artificial no tienen actitud de ningún tipo (aunque la emule muy bien y cada vez mejor). Actualmente y a corto plazo, la respuesta es, pues, un rotundo no. Ni actitud de pensamiento crítico ni ninguna otra.

No sucede en la realidad, ni se avista que pueda suceder en el futuro, que la inteligencia artificial pueda cumplir las condiciones necesarias para tener una actitud, como podrían ser la autoconsciencia, el libre albedrío y quizá los sentimientos.

Respecto a lo que pueda suceder en en el futuro, prefiero no apostar mucho pero, si sucediera alguna vez, creo que sería en un futuro lejano, un futuro que estoy seguro de que no voy a ver.


La IA y las técnicas de pensamiento crítico


En la parte de ejecución de las técnicas de pensamiento crítico, creo que la cosa cambia bastante y creo que la inteligencia artificial no es que pueda en un futuro aplicar las técnicas del pensamiento crítico...es que puede hacerlo ya mismo.

La aplicación de la lógica resulta bastante natural a una inteligencia artificial y valorar la lógica de un argumento está perfectamente en su campo de acción actual. Hoy en día ya se puede conseguir de forma trivial un análisis de la lógica de un argumento por parte de un chat generativo, por ejemplo. Con un ejercicio de buen prompting y un enriquecimiento de información, seguramente mediante RAG, creo que ese análisis, además, puede ser muy, muy fino.

Y, aunque algo más etéreos, algo parecido éxito aplica a la detección de sesgos cognitivos. Con un poco de guiado, con un buen y detallado promting y proporcionando al agente inteligente la información específica adecuada, creo que la detección de sesgos puede ser bastante acertada.

En cuanto a la verificación de datos, cualquier modelo actual con acceso a Internet, especialmente los llamados modelos razonadores, puede hacer un buen trabajo en esa materia.

Así que mi conclusión es que, en lo relativo a la aplicación de las técnicas de pensamiento crítico, la inteligencia artificial actual está ya muy bien preparada para  llevarlas a acabo de manera efectiva y puede que mejor que un humano. Y no tengo dudas, además, de que va a seguir mejorando.


La irrelevancia de la actitud


¿Por que decía más arriba que el que la inteligencia artificial tenga o no actitud es irrelevante?

Bueno, lo decía en el sentido de que, si una solución de inteligencia artificial es capaz de aplicar con éxito las técnicas de pensamiento crítico sobre un discurso, no necesita realmente la voluntad de hacerlo. Para eso está el humano quien, mediante una simple y trivial invocación a la solución de inteligencia artificial, hace que ésta se ponga en marcha. Más aún, en ciertos contextos podrías dejarlo programado. Por ejemplo, se puede (y lo puedes hacer ya hoy en día) dejar programado que todas las mañanas la inteligencia artificial te haga un análisis crítico de las noticias más relevantes publicadas. 


A modo de conclusión


Uniendo todo lo anterior, creo que es bastante razonable decir que el pensamiento crítico (en realidad el análisis crítico) está ya bastante al alcance de la inteligencia artificial y seguro que más que lo estará en el futuro, y un futuro inmediato.

Por eso, creo que no podemos considerar el pensamiento crítico como un reducto humano, algo que nunca podrá ejercer la inteligencia artificial.

Lo cual no es óbice para afirmar que, en mi opinión, el pensamiento crítico es hoy en día más necesario que nunca, y la necesidad de que los humanos lo desarrollemos, más acuciante que nunca.  

Y no sólo, ni siquiera principalmente, por la existencia de la inteligencia artificial...