Mostrando entradas con la etiqueta HRI. Mostrar todas las entradas
Mostrando entradas con la etiqueta HRI. Mostrar todas las entradas

miércoles, 11 de junio de 2025

Human-Robot Interaction y los posibles modelos emocionales

Uno de los temas que más llaman la atención cuando hablamos de interacción con las máquinas, y muy especialmente con los robots, es todo lo que tiene que ver con las emociones: la detección de las emociones humanas por parte del robot, la expresión de emociones por parte de ese mismo robot y, si queremos ir muy lejos (probablemente demasiado lejos), la posibilidad de que alguna vez el robot pueda experimentar sus propias emociones.

Se trata de un tema que además, personalmente me fascina, tanto en su vertiente técnica como en sus implicaciones éticas. 

Uniendo algunas lecturas (y docencias) recientes que tienen que ver tanto con la disciplina del human-robot interaction como con inteligencia artificial generativa y agentes conversacionales, he creído detectar una evolución, una posible evolución que intuyo, pero que tengo pendiente de confirmar, que supone un cierto cambio de paradigma en el tratamiento de las emociones por parte de los robots.

Un cambio de paradigma que, en el fondo, simplemente trasladaría al mundo de la robótica social un cambio que ya se está produciendo en chatbots o agentes conversacionales.

Vayamos paso a paso.


Human-Robot Interaction


La relación robots-personas (HRI, 'Human-Robot Interaction') es una disciplina que auna conocimientos procedentes del campo de la robótica y la inteligencia artificial, pero también de la psicología o la antropología, y que se ocupa del estudio de la interacción entre personas y robots y del diseño de los mejores robots y mecanismos de interacción.

Tiene en cuenta cosas como, por supuesto, el lenguaje verbal, pero también el no verbal, la proxémica, las convenciones sociales y... si, la detección y gestión de emociones, donde se solaparía con la así llamada computación afectiva ('affective computing').


Gestión de emociones


Podríamos decir que, a la hora de gestionar emociones por parte de un robot, se podrían distinguir como tres fases, o tres dinámicas, interrelacionadas pero distinguibles:

  • Detección de emociones en los humanos
  • Experimentación de las propias emociones por parte del robot
  • Expresión de emociones por parte del robot

De las tres anteriores, la segunda, experimentación de emociones por el propio robot, hoy en día es una pura fantasía, así que no nos detendremos más en ella.

Sí que son relevantes, y con importantes resultados tangibles, las otras dos: la detección de las emociones humanas por parte del robot y la expresión de unas emociones propias del robot (aunque se trate de emociones impostadas, no sentidas).


Modelado de emociones


Ya desde hace décadas, y de manera con frecuencia independiente al tratamiento mediante máquinas, en el campo de la psicología se han venido analizando e intentando modelar las emociones.

Uno de los primeros y más populares resultados fueron los hallazgos de Paul Ekman quien identificó las conocidas seis emociones básicas (alegría, ira, miedo, asco, sorpresa, tristeza) que eran reconocibles a partir de la expresión y que trascendían las culturas.


Expresiones faciales correspondientes a las seis emociones básicas

Posteriormente, Ekman amplió su catálogo a quince. Se trata de unos hallazgos no siempre bien interpretados o utilizados pero que, a efecto de HRI, me interesa destacar que permite la identificación de emociones a partir de expresiones faciales y que el resultado es una categoría de entre un número finito disponible de emociones.

El propio Ekman propuso posteriormente otro modelo en que, más que recoger expresiones faciales completas, se centraba en diversos detalles. Definía el Facial Action Coding System (FACS) donde se identificaban las AU ('Action Units') en número de varias decenas.


FACS

Estas action units se pueden reconocer visualmente o, en laboratorio, mediante medida de actividad muscular. Aunque no conducen de forma inmediata a una categorización de emoción, existen guías complementarias que sí lo hacen

En ambos casos, al final podemos llegar a una emoción como una etiqueta, de entre un conjunto finito de ellas, que caracteriza el estado emocional del ser humano.

Existen otros modelos que, trabajan es espacios continuos, bidimensionales (como el modelo circunflejo de Russell) o tridimensionales, y donde algunas de las variables de ese espacio suelen ser la denominada excitación ('arousal') que, de alguna forma, mide la intensidad de la emoción, y la valencia ('valence') que indica si se trata de una emoción más positiva o más negativa. 


Modelo circunflejo de Russell

Otros modelos, en este caso tridimensionales, como PAD, usado por el mítico robot Kismet, añade una dimensión de dominancia.

Aunque en estos modelos de emociones existe una continuidad, y no unas categorías cerradas, tampoco nos alejamos demasiado de esa visión de emociones como un catálogo de posibilidades, como se puede ver en la propia figura. De alguna manera, regiones de ese espacio de estado se corresponden con una emoción


Detección de emociones


Los robots detectan las emociones humanas tomando, en primer lugar, alguna forma de medida de su manifestación externa en los humanos, mediante sensores. Los dos más comunes, y probablemente al mismo tiempo los más potentes y ricos en información, son las cámaras (que permiten captar, fundamentalmente la expresión del rostro humano, pero también sus gestos y otros elementos de lenguaje no verbal) y los micrófonos que captan la voz incluyendo los elementos prosódicos como intensidad, acento, etc.

Sólo con esos dos tipos de sensores, tan familiares en todo tipo de aplicaciones, los robots obtienen casi toda la información que necesitan. Existen otros sensores, más especializados, pero ahora no profundizaré en ellos.

El caso es que, mediante los sensores, los robots tienen la información primaria sobre las emociones expresadas por el humano.

Desde ahí, la conclusión de la emoción subyacente y si nos basamos en un catálogo de emociones como el propuesto en su momento por Ekman,  se puede reducir a un problema de clasificación, tan común en el machine learning y deep learning.

Si utilizamos un espacio de estados, parece que hay un primer paso de regresión, para situar el estado emocional del humano en las características de ese espacio de estados, y luego, si queremos 'darle nombre' a la emoción, un problema de clasificación adicional casi trivial (que no precisa siquiera de inteligencia artificial) para asignar la emoción subyacente según la región en que nos encontremos.


Chatbots basados en reglas


Establecidas esas fases, paso ahora a comentar la evolución de los chatbots. Los chatbots de los que hemos dispuesto hasta hace poco, antes de la explosión de los modelos generativos, se han venido construyendo en general implementando un modelo de conversación que ya explicaba en mi libro 'Robots en la sombra' y que se muestra en la figura:


Modelo de conversación

En ese modelo, las intenciones ('intents') son una forma de categorización de lo que el usuario puede pedir al chatbot (reserva de cita, compra de un billete de avión, conocimiento sobre un producto, etc). Eso sí, como trabajamos en lenguaje natural esas intenciones se pueden manifestar verbalmente con expresiones ('utterances') diferentes e incluso muy diferentes. Asociada a cada interacción el humano suele añadir información en forma de parámetros o entidades como ciudades, personajes etc.

La labor donde interviene la inteligencia artificial en ese tipo de chatbot es, en primer lugar, en la conversión voz-texto (en caso de que interactuemos de viva voz) y, sobre todo, en la detección de la intención y la extracción e entidades a partir de la expresión del usuario. Este último problema, la detección de la intención, se trataría claramente de un problema de clasificación.

A partir de ahí, el resto de cosas (consulta o interacción con servicios o sistemas externos) e incluso emisión de la respuesta, sucede sin usar la inteligencia artificial y procede de configuraciones o desarrollos realizados por el desarrollador del chatbot. Sólo se añade inteligencia artificial en la eventual conversión texto-voz para contestar al usuario de viva voz.

Este tipo de chatbots hoy en día tienden a denominarse como 'basados en reglas' porque, en efecto, es el desarrollador el que establece, para una intención dada, qué sistemas o servicios deben consultarse o invocarse y qué respuesta corresponde a esa intención.


Comportamiento emocional de robots basado en reglas


Aunque confieso que me falta información técnica de detalle, y aunque puede variar de modelo de robot a modelo de robot, intuyo que los robots sociales que manejan emociones funcionan de una manera parecida a como lo hacen estos chabots.

Es decir, a partir de la información de los sensores (pensemos por ejemplo la cámara), detectan la emoción subyacente en el humano mediante la aplicación de un algoritmo de clasificación. A partir de ahí, se desencadena la respuesta del robot: qué información debe consultar, qué emoción debe expresar el propio robot (en caso de que tenga capacidad para ello) y qué debe contestar al humano.

Y sospecho que todo lo que tiene que ver con los pasos posteriores a la detección de la emoción, está fundamentalmente basado en algún tipo de reglas no muy diferentes a las que emplean los chatbots.


Chatbots basados en modelos generativos


Volvamos a los chatbots, pero para ver cómo cambia la cosa con los modelos generativos.

Cuando usamos un chatbt basado en un modelo generativo, un modelo fundacional o un gran modelo de lenguaje, la cosa funciona de manera muy diferente: no existe un distinción tan nítida entre la entrada y saluda, y no se clasifican los deseos del usuario en intenciones, sino que se trata su entrada (su 'prompt') en su conjunto, sin clasificar y, sobre todo, el propio modelo genera la respuesta, que no se basa en ningún tipo de regla aunque sí se puede realizar un cierto condicionamiento.

Las dos cosas más relevantes que cambian son, pues, que es que el modelo, la inteligencia artificial, funciona extremo a  extremo, en entrada, salida y procesamiento. Y, además, que no existe clasificación en intenciones.


Computación afectiva basada en modelos generativos. Los modelos emocionales


Visto lo anterior, y dada la posibilidad cierta (de hecho, seguro que ya se está haciendo) de que los nuevos robots se apoyen en sus aspectos verbales en modelos de lenguaje generativos, parece más que probable (aunque no tengo noticias de ello, apostaría a que ya alguna empresa o laboratorio está en ello) que en los aspectos de la computación afectiva se utilicen también este tipo de modelos.

Si eso fuese así, parece que perderían sentido la clasificación de emociones en categorías cerradas (igual que en los chatbots pierde sentido categorizar las intenciones) y, no sólo eso, lo más importante es que la respuesta del robot, incluyendo sus aspectos emocionales, se crearían por el propio modelo (no por unas reglas).

Aunque entiendo que esos es técnicamente viable desde ya mismo, calculo que se debe realizar un entrenamiento, (un más que probable 'fine-tunning') para conseguir un buen funcionamiento de estos 'modelos emocionales'.

Como digo, no puedo afirmar taxativamente que esto que indico este sucediendo, pero tengo una casi completa seguridad de que sí, y de que, probablemente,  veremos cosas en este sentido a no mucho tardar, quizá ligado al campo emergente de la así llamada 'embodied AI'.


Conclusiones


La llegada de los modelos generativos y su eventual inclusión en robots sociales, puede cambiar el paradigma de cómo se gestionan las emociones humanas en los robots, pasando de un modelo más basado en reglas, a un modelo extremo a extremo, sin clasificación de emociones y apoyado en lo que podríamos denominar un 'gran modelo emocional'.


miércoles, 10 de abril de 2024

El 'mind reading' y su importancia en roboética

En un reciente post, al explicar el giro relacional en roboética propuesto por David Gunkel. en materia de roboética, mencionaba, brevemente, el término 'mind reading' y sugería que lo trataría en un siguiente post. Bueno, ha llegado el momento de hacerlo.

Si menciono el término 'mind reading', (literalmente 'lectura de la mente') a aquellas personas que no conozcan el concepto, les puede sugerir algo misterioso, algo así como en una especie de telepatía o, ya que lo menciono en relación con la roboética, algo temible, como si las máquinas fuesen capaces de leer nuestra mente, nuestros más íntimos pensamientos y sentimientos. Pero no, no se trata de eso exactamente, aunque tenga alguna conexión y aunque ¡a saber dónde podemos llegar!.


El mind reading en humanos


En realidad, la idea del mind reading surge en el contexto de la psicología y hace referencia, no a una estricta lectura de la mente, sino a la capacidad que tenemos los seres humanos (supongo que también al menos hasta cierto punto otros seres vivos) de interpretar lo que, dicho familiarmente, 'se le está pasando por la cabeza' a nuestro interlocutor. Bueno, por la cabeza y por el corazón usado el corazon como metáfora de los sentimientos y emociones.

El mind reading es la capacidad para intuir los pensamientos y emociones de otros, con base en lo que expresa mediante lenguaje verbal, las expresiones faciales y, en general, todo tipo de lenguaje no verbal incluyendo, claro, elementos involuntarios como el 'ponernos colorados'.

Aunque, como todo mecanismo natural no es perfecto, nuestras capacidades humanas de 'mind reading' son eficaces y suficientes para entender a los demás y así engrasar las relaciones interpersonales y sociales.


Mind reading en relación robots personas


Pero ¿existe 'mind reading' en las relaciones robots-personas o, en general en la relación de las máquinas y las personas?

Bueno, creo que podemos decir que existen al menos formas más o menos rudimentarias de 'mind reading'.

Si lo pensamos en el sentido de que un robot haga 'mind reading' a una persona, es decir, entienda sus intenciones y emociones, podemos decir que, aunque de una manera imperfecta, existen mecanismos para ello.

De todos es conocido el formidable avance de los últimos años en materia de procesamiento de voz y de lenguaje natural, de forma que, aunque con alguna reserva, podemos decir que los robots tienen capacidad para 'entender' el lenguaje verbal. Es necesario precisar aquí que lo de 'entender' va con comillas, con muchas comillas en realidad, porque los algoritmos actuales de entendimiento de lenguaje natural, en general no comprenden lo que el humano dice, no asignan un verdadero contenido semántico a las palabras. Se trata de un tema con muchos matices y que, por ejemplo, nos llevaría al problema del 'symbol grounding', pero voy a evitar en este post complicarme con esos temas y asumir que, a efectos prácticos, y aunque de manera imperfecta, los robots pueden entender el lenguaje verbal.

Ya hemos tratado también con frecuencia cómo los robots, aplicando, por ejemplo, las técnicas de la computación afectiva ('afective computing') pueden también deducir, aunque de manera aún limitada,  emociones. 

Y combinando estímulos verbales y no verbales, los robots puede, hasta cierto punto, estimar las intenciones de los humanos.

Es decir, los robots (pienso, por supuesto, en robots cognitivos avanzados) tienen unas razonables capacidades para hacer 'mind reading' a los humanos.

¿Y en el otro sentido? 

¿Podemos los humanos entender las intenciones, emociones y estados internos de los robots?

Bueno, hay mucho que decir sobre en qué consisten esos estados internos, esas presuntas emociones e intenciones de los robots.

Pero antes de entrar en ello, decir que en el propio diseño de los robots sociales o incluso los robots software de naturaleza conversacional, se busca que tanto el lenguaje verbal, expresado mediante voz, como los gestos o expresiones faciales del robot, transmitan, precisamente, esas presuntas emociones o intenciones del robot.


¿Existe en los robots una  mente que leer?


Quizá haya que explicar de qué estados internos, de qué emociones e intenciones estamos hablando si nos referimos a un robot o, dicho de otra forma ¿Qué 'lee' un humano de la mente de un robot?

Hay que ser claro: los robots, al menos los robots actuales, no tienen emociones. Punto. En ese sentido, no habría nada que leer... Bueno, relativamente. Es seguida vamos a ello.

¿E intenciones? Bueno, si por intenciones entendemos una forma de libre albedrío, podría ser tan radical como en el caso de las emociones y decir que no tienen libre albedrío. Y punto, de nuevo. 

Sin embargo, sí que tienen claramente intenciones en el sentido de acciones que planifican realizar a continuación como consecuencia de sus objetivos y del estado del entorno en que se mueven (formando las personas parte de ese entorno). Y dado que son acciones 'lógicas', y siguiendo además una lógica similar a la humana, y que además los propios robots 'señalizan' de alguna forma esa intención, sí podríamos considerar que los humanos podemos 'leer', al menos hasta cierto punto, las intenciones de los robots.

Pero, y volviendo a las emociones, los robots sociales, aunque no sientan emociones, sí que simulan en su comportamiento externo, esas emociones. Sí tienen, o pueden tener, estados computacionales internos que les sitúan en una especie de estado emocional y que condiciona su comportamiento y cómo se expresan en su relación con los humanos a nivel de lenguaje verbal, gestual y, en general, las capacidades de lenguaje no verbal que el robot pueda exhibir.

Y los humanos podemos 'leer' esos estados emocionales porque, además, los robots sociales están expresamente diseñados para facilitar esa lectura de sus estados por parte de los humanos.


Mind reading y roboética


Y esto conecta con la roboética porque nos encontramos ante unos entes, los robots sociales o cognitivos avanzados, que no sólo son capaces de, hasta cierto punto, 'leer nuestra mente' (en el sentido psicológico del 'mind reading'), sino que, además, simulan un estado interno que incluye emociones y, por supuesto intenciones y que los humanos podemos, a su vez,  'leer' e interpretar.

Y esto conecta con muchos elementos éticos. 

Si, como defiende Gunkel, lo que puede definir el estatus moral de un robot es, no su propia naturaleza (enfoque de las propiedades), sino las relaciones que mantenemos con ellos, en cierto sentido pierde importancia el que el robot no tenga verdaderas emociones o libre albedrío en la medida que en su relación con los humanos sea capaz de leer suficientemente bien nuestra mente y simular, suficientemente bien su propia mente y simularla de una forma que los humanos podamos leer.

Y todo esto afecta, pues, a su estatus moral o a problemáticas éticas que incluyen la eventual amistad de personas con robots, e incluso las relaciones sentimentales con robots.


Conclusiones


Hemos visto que el 'mind reading' es una capacidad de naturaleza esencialmente psicológica que tenemos los seres humanos y que facilita y moldea nuestras relaciones. 

Y hemos visto que, aunque con limitaciones e imperfecciones (que seguramente se irán borrando en el futuro a medida que la tecnología avance), los robots cognitivos y sociales avanzados pueden, a su vez simular estados anímicos internos, intenciones y emociones y hacerlo de manera que los humanos podamos 'leer' esos estados, esas intenciones y emociones.

Dejando aparte el enorme interés científico y técnico de este hecho, también es muy relevante las herramientas que añade y también las problemáticas que abre desde un punto de vista ético


miércoles, 26 de julio de 2023

Tres caracterizaciones de los robots

Recientemente publicaba un artículo en este blog en que me hacía eco de la dificultad de definir la disciplina de la Inteligencia Artificial y daba alguna opinión acerca de los esfuerzos que, al respecto, se están haciendo en las instituciones de la Unión Europea de cara a cerrar el texto de la AI Act.

Pero si es difícil definir inteligencia artificial, no le va en zaga hacerlo con el término 'robot', algo que ya he recogido en varias de mis publicaciones y, en concreto, en este mismo blog, donde hace ya unos meses lo comentaba en el artículo 'Una definición formal pero insuficiente de robot'.


Robot: un concepto sin consenso


Y es que, realmente, no existe una definición autorizada y, sobre todo, un consenso, acerca de lo que es un robot.

Por eso, dentro de en mi proyecto 'The robot notes', consistente en una larga serie de videos para explorar y explicar en una visión 360 grados los aspectos más relevantes de la robótica, algunos de los primeros videos de la serie se dedicaban, precisamente, a intentar centrar qué es un robot, y constatar que no existe, realmente, una definición universalmente aceptada. 

En concreto, en el primero de los videos de la serie, el titulado 'The robot concepts' ('Los conceptos de robot') comentaba algunas de las formas de entender o definir qué es un robot. Puedes ver a continuación ese vídeo.



Aunque en el vídeo se comentan algunas de las propuestas, lo cierto es que hay muchas más y ya no se trata sólo de una mera formalización en un texto convincente, es que realmente lo que hay es debate de fondo sobre lo que es un robot y lo que no lo es.


Definición versus caracterización


Lo cierto, y creo que ese es el origen del problema, es que realmente nadie, ni la industria, ni los investigadores, ni los escritores, se ha preocupado realmente de aplicar de forma rigurosa el término robot o de reflexionar seriamente sobre él. Simplemente, han ido asignado ese nombre por motivos técnicos, comerciales o artísticos, o incluso, sin un razonamiento muy concreto, sino por ocurrencia o antojo, a diferentes artefactos.

Como no ha habido ni guía ni criterio único, en muchos casos ni siquiera rigor, es muy difícil a posteriori dar a luz una definición que abarque todo aquello a lo que se ha llamado robot y satisfaga a todos.

Ante la dificultad, casi diría la imposibilidad, de consensuar esa definición amplia, rigurosa y universalmente aceptada del término robot, quizá la única opción sea hacer una suerte de ingeniería inversa para intentar extraer las características comunes que exhiben todos los artefactos a los que denominamos robot y así, al menos, hacernos una idea y entendernos mejor

Esto es lo que explicaba en el video 'Reverse engineering the robot concept' ('Haciendo ingeniería inversa del concepto de robot'):



En cualquier caso, esa ingeniería inversa no deja de ser un ejercicio hasta cierto punto voluntarista y las características que se identifiquen, son las que de forma mayoritaria y con mayor frecuencia están presentes aquellas 'cosas' que llamamos robot, pero no necesariamente están presentes siempre y no necesariamente todo el mundo estaría de acuerdo en ellas.

Esto da origen a lo que denomino en este artículo 'la caracterización', esto es, la identificación del conjunto de características más habituales en los robots y hasta cierto punto definitorias.

 

Un primera caracterización


Una primera caracterización la hice ya en mi libro, 'Robots en la sombra' que trata sobre robots software y donde intentaba, sobre todo, recoger una serie de características que, siendo comunes a robots físicos y robots software, me ayudasen, sobre todo en el caso de estos últimos, a explicar por qué a algunos tipos de software se les llama robots y a otros, la mayoría, no. Las seis características que allí proponía son:


  • Artificiales
  • Adaptables
  • Actuantes sobre el entorno
  • Autónomos
  • Sustitutos de personas
  • De actuación similar a personas


De estas seis, las cuatro primeras son, creo, muy fáciles de entender y admitir para cualquier tipo de robot. Las dos últimas, que además son las más ambiguas y debatibles, aunque aplicables también a robots físicos, tienen especial interés a la hora de delimitar, dentro del campo del software, a que llamamos robot y a qué no.


Una segunda caracterización


Más adelante, y de nuevo dentro del proyecto 'The robot notes' he realizado otra caracterización de robot, bastante próxima a la anterior, aunque no exactamente igual



En este caso, parto de la idea de un agente, un ente que percibe a su entorno mediante sensores y actúa sobre él mediante actuadores, y además, distingo entre las características que considero imprescindibles y aquellas que sólo son adicionales (optativas, en cierto sentido, aunque refuerzan la idea de robot).

Las obligatorias serían:


  • Artificial: construida por el hombre o por otras máquinas, no biológico, por tanto.
  • Inteligente: no en el sentido de utilizar necesariamente inteligencia artificial, sino indicando que sus acciones son coherentes con sus objetivos y con lo que perciben en el entorno.
  • Autónomo: funcionan por si solos sin ser manipulados o pilotados directamente por un humano.
  • Adaptable: comportamiento no rígido sino que se adapta a la tarea y circunstancias.


Y las adicionales, no obligatorias, serían:


  • Percibidos como una unidad: es decir, como algo diferenciado, no extenso o distribuido.
  • Similitud con los humanos: característica, debo admitir, muy sujeta a juicio, discusión y debate, pero que creo tiene su importancia en la práctica.

La caracterización de Aníbal Astobiza


Pero si todo lo anterior son mis propios pensamientos y los he recogido en diversas formas de publicación en mis medios digitales o en papel, lo que me ha animado a escribir este post es el hallazgo de una tercera caracterización interesante.

Se trata de la que realiza el filósofo Aníbal Astobiza en su libro 'Tecnofilosofía'.

Allí, el autor propone las siguientes características:


  • Movilidad: que les permite a los robots trabajar en hospitales y oficinas

  • Interactividad: que se refiere a la existencia de sensores y actuadores que permiten al robot interactuar con su entorno

  • Comunicabilidad: relativa, según entiendo del texto, a su relación con humanos mediante interfaces informáticas tradicionales (lo que solemos denominar interfaces de usuario) o mediante la voz y el lenguaje natural.

  • Autonomía: Capacidad para tomar decisiones sin necesidad de un control externo directo.


De estas características, claramente, la autonomía se utiliza en el mismo sentido en que yo lo hago, y la interactividad está de alguna forma implícita en la idea de agente que yo también utilizo. En estas dos, pues, coincidimos creo que plenamente.

La característica de comunicabilidad es bastante común en los robots y muy interesante, por cierto, cuando hablamos de robots sociales e Human-Robot Interaction. Sin embargo, en muchos de ellos no es, todavía, mediante interfaces de tipo social, naturales para los humanos, sino vía interfaces de usuario más tradicionales e incluso protocolos técnicos de comunicación.

Sin embargo, la característica de movilidad, aunque se da, y en buena medida, en muchos robots, deja fuera, por supuesto, a los robots software y, dependiendo de a qué tipo movilidad nos refiramos, a otros tipos de robots. Especialmente si pensamos en movilidad como un desplazamiento completo del robot, no una mero movimiento de sus eslabones o partes constitutivas, podría incluso dejar fuera a los propios brazos robóticos industriales. A falta de aclarar mejor esta característica, en principio no me convence mucho como caracterizadora de lo que es un robot. 


Conclusiones


Pocas conclusiones podemos sacar salvo reafirmarnos en la dificultad, casi imposibilidad, de proporcionar una definición de robot rigurosa, de amplio consenso y que a su vez cubra todo, o al menos la mayor parte de aquellos entes a los que denominamos, quizá sin pensarlo mucho, 'robot' y, por tanto, el interés de identificar aquello que comúnmente exhiben los artefactos que llamamos robot y que ayudan a distinguirlos de los que no consideramos como tales.


miércoles, 12 de julio de 2023

Pasión y vértigo. La relación con las máquinas y el efecto sustitutivo

La relación de los humanos con las máquinas está evolucionando.

La evolución de la relación humano-máquina


Y está evolucionando provocado, creo, no tanto por el cambio en el lado humano de esa relación, como por la creciente sofisticación de las capacidades relacionales de esas máquinas, con frecuencia por mor de la aplicación de cada vez más avanzadas capacidades cognitivas  procedentes de la inteligencia artificial.

Y aunque acabo de decir que el cambio se produce más en el lado máquina de la relación, porque es el lado que más ha evolucionado en cuanto a capacidades, lo cierto es que, indirectamente algo, y mucho probablemente, cambia también en el lado humano de esa relación que, al final, es el que nos importa.

Cambia por evolución cultural, cambia por la percepción que tenemos de las máquinas, cambia por la abundancia de esas relaciones con las máquinas, cambia, a veces, incluso por la dependencia e impacto que en nuestras propias actitudes y capacidades cognitivas induce esa relación.


La tecnología como sustitutivo


En un libro casi clásico, ‘Alone Together: Why We Expect More from Technology and Less from Each Other‘ de Sherry Turkle, se habla de estas relaciones centrándose en dos grandes grupos de tecnologías: por un lado la robótica social y, por otra las redes sociales incluyendo como tal también la mensajería instantánea. Y se concluye en una frase casi mítica, que se recoge como subtítulo del libro que esperamos más de la tecnología y menos delos demás.


We fear the risks and disappointments of relationhip with our fellow humans. We expect more from technology and less from each other.


En cierto modo, aunque creo recordar que Turkle no emplea este término, nos habla de la tecnología como una suerte de producto sustitutivo en lo que a las relaciones humanas se refiere.

Veamos un poco más los principales mensajes de Turkle.


Esperamos más de las máquinas


Por un lado, Turkle destaca el atractivo de las máquinas, de esas máquinas con cada vez más avanzadas capacidades relacionales y con una, en realidad impostada, comprensión de las necesidades e intimidades humanas


Technology proposes itself as the architect of our intimacies


Una tecnología social, es decir, orientada a relacionarse con humanos, como pueden ser los robots sociales, los agentes conversacionales o, en cierto sentido, las redes sociales, tenderá a intentar entender y gestionar las emociones humanas, sus necesidades y sus deseos incluso los no expresados y que, en ese sentido, se pueden considerar hasta cierto punto íntimos.

Y, además, según nos dice la autora, a medida que esa tecnología, esa máquina, es más capaz de detectar nuestras debilidades, inseguridades y vulnerabilidades, y de ofrecer algún tipo de ayuda, soporte, consuelo o satisfacción, se convierte en una solución más atractiva, más seductora.


Technology is seductive when what it offers meets out human vulnerabilities


No creo, estoy seguro en realidad, de que lo que esperamos de las máquinas no es sólo, ni mucho menos, una, digamos, satisfacción emocional. También esperamos de ellas capacidad de cálculo, esperamos información, esperamos ayuda con tareas del día a día, esperamos que nos liberen de tareas arduas, esperamos automatización y eficiencia, esperamos entretenimiento, etc

Pero sí creo que en la medida que incorporen esas capacidades relacionales, y esa capacidad para gestionar emociones y necesidades, especialmente en las situaciones de vulnerabilidad emocional, el atractivo crece, la intensidad de la relación crece, la frecuencia de la relación crece... y puede que crezca la dependencia.


Esperamos menos de las personas


En el lado contrario, nuestras relaciones naturales, las relaciones con los humanos, pierden peso. A veces, simplemente, por falta de tiempo, porque dedicamos mucho de nuestro tiempo en relacionarnos con las máquinas o a través de ellas (caso de las redes sociales) y disponemos, pues, de menos espacio material para la relación con los humanos cercanos.

Y con ello, perdemos poco a poco esa relación humana. Y, en cierto sentido, y esa es la paradoja que destaca Turkle, mientras más conectados estamos, más solos nos encontramos, en realidad.

Y, sin embargo, parecemos no desear romper ese círculo. ¿Por qué? Pues, falta de tiempo aparte,  por las complejidades, dificultades, exigencias y a veces decepciones que acompaña a toda relación persona-persona.

Y así, nos encontramos ante la paradoja:


we are lonely but fearful of intimacy


Solos, pero con miedo a la intimidad (con personas, se entiende)


Digital connections and the sociable robot may offer the illusion of comanionship without the demands of frendship


En nuestro 'auxilio', las máquinas, máquinas sociales, máquinas que parecen acompañarnos y acercarse a nosotros, comprender nuestras vulnerabilidades y que nos 'acompañan', pero sin exigirnos, sin complejidades, sin decepciones.

Esta es la paradoja.

Este sea, quizá, el peligro.


El salto generativo


Y todos estos razonamientos los escribía Turkle ya en 2017.

Me pregunto qué puede pasar desde ya y en un plazo de, digamos, tres años, cuando se desarrolle e implante aún más la tecnología generativa de la inteligencia artificial con su mayor transversalidad cognitiva y su salto cualitativo en cuanto al uso del lenguaje y el conocimiento en general.

En un artículo reciente, me preguntaba sobre su impacto en nuestras capacidades cognitivas, pero ahora dejo abierta la pregunta sobre su impacto en nuestras capacidades relacionales y sociales.


Conclusión. Pasión y vértigo.


Vivimos tiempos apasionantes, pero también de profundo vértigo.

Tiempos en que los cambios tecnológicos suponen una gran exigencia intelectual y laboral para estar al día, para seguirle el paso a la tecnología, para adaptarnos, para continuar siendo profesional y laboralmente relevantes.

Pero tiempos en que esos cambios nos devuelven, una y otra vez, no sólo a lo operativo, económico y profesional, sino a la necesidad de la reflexión sobre la persona, sobre el ser humano y sobre la sociedad. Sobre qué somos realmente y qué queremos ser y, en este caso, cómo nos relacionamos y cómo queremos relacionarnos, con las máquinas y, sobre todo, entre nosotros, humanos.

Tiempos que imponen pragmatismo, si, pero también reflexión humanista y decisiones éticas.

Tiempos de pasión. 

Tiempos de vértigo.


lunes, 19 de junio de 2023

Emoción artificial

Un campo apasionante, a la vez que intimidante, en lo relativo a la inteligencia artificial y la robótica cognitiva, es todo lo que tiene que ver con la gestión de las emociones.

La gestión de las emociones por entes artificiales


Me refiero a la detección de emociones en humanos, a la reacción inteligente de un agente artificial inteligente (digamos un algoritmo, un agente conversacional o un robot social) ante esas emociones humanas, y a la simulación de sus propias emociones por parte de ese agente artificial inteligente.

Ya he hablado en este mismo blog sobre el tema y me he referido, por ejemplo, al campo del 'Affective computing' un término, creo, un poco en desuso hoy día, aunque, a despecho de lo que pueda suceder con el término, lo que hay detrás, la disciplina en si, está vivo, muy vivo, y creo que lo estará aún más en el futuro.

Recientemente me estoy tropezando con el término 'Emotion AI', que quiero investigar y que calculo que se refiere poco mas o menos a lo mismo.

Más allá del contenido, que es lo más interesante, en este post voy solamente a especular un poco sobre la propia definición del campo. Y lo hago inspirado por la lectura del libro 'Alone Together: Why We Expect More from Technology and Less from Each Other' de Sherry Turkle, un libro casi clásico entre quienes se interesan por la robótica social, por la relación robots-personas y, en general, por la interacción social de los humanos con la tecnología.

Se trata de un libro no del todo reciente (data de 2017, lo cual en otros campos seria bastante actual, pero en el que nos ocupa, puede notar el paso del tiempo) pero aún relevante.


La definición primigenia de inteligencia artificial


Turkle hace un paralelismo, que, en el fondo, es lo que me ha llamado la atención, con la explicación, no sé si definición, que los asistentes a la famosa conferencia de Darmouth dieron para explicar la recién creada y bautizada disciplina de la inteligencia artificial.

Decían que lo que pretendían era conseguir que las máquinas se comportasen de tal manera que la consideráramos inteligente si un humano se comportase de esa misma manera.

Una visión externa de la inteligencia (artificial), orientada a los resultados y manifestaciones y no tanto a una esencia, probablemente más difícil de definir.

Una orientación que, de alguna manera, enlaza con el famoso test de Turing que también juzga la inteligencia por su manifestación externa en un enfoque que podríamos calificar casi como fenomenológico.


Una definición de emoción artificial


Con esa inspiración Sherry Turkle propone, de una forma que considero ingeniosa, una definición paralela de lo que sería la emoción artificial. Así, nos dice


We are coming to a parallel definition of artificial emotion as the art of "getting machines to express things that would be considered feelings if expressed by people".


En esta especie de definición, nos olvidamos (aunque en el fondo queda implícito) de la detección de las emociones humanas por parte del agente artificial inteligente y nos concentramos más en su expresión de emociones y, como hacían los científicos de Darmouth, consideremos que una máquina es emocional si es capaz de expresar cosas que consideraríamos sentimientos si las expresase un humano.


Alguna implicación filosófica


Es muy importante, de cara a consideraciones éticas e incluso legales, el notar que adoptamos una visión externa. Es decir, no afirmamos que el agente artificial inteligente, 'sienta' realmente nada, que tenga realmente ninguna emoción: sólo que se comporta de una forma que consideraríamos emocional (sentimiento) si un humano hiciese lo  mismo

En una visión filosófica profunda eso nos podría llevar a debates sobre si realmente eso es una emoción o no, o incluso si podemos realmente llegar a saber si realmente ese agente siente algo o no (en el fondo, la misma cuestión aplica a los seres humanos).

Pero más allá de esa quizá irresoluble cuestión, el hecho de que consideremos a un agente como 'sintiente' puede ser suficiente para adjudicarle 'paciencia moral' y por tanto, deducir que puede tener unos derechos.

Por otro lado, desde un punto de vista ético, también nos podemos cuestionar si se produce engaño cuando un agente artificial expresa emociones o si hay riesgos fundamentalmente de tipo afectivo o moral de cara a humanos que interactúen, quizá inadvertidamente, con esos agentes 'emocionales'. 


Conclusión


El campo de la gestión de emociones por parte de agentes artificiales es técnicamente viable, al menos hasta un cierto nivel, y lo que cabe preguntarse ahora es hasta donde lo queremos llevar y qué implicaciones filosóficas, éticas y legales trae consigo.


domingo, 16 de abril de 2023

La interacción robots-personas y los principios de diseño de interfaces de usuario

El diseño de la interacción entre robots y personas, en el caso especialmente de los robots sociales, es compleja y presenta múltiples facetas donde cuenta, aparte de lo técnico, lo psicológico, lo cultural, lo antropológico, etc.

Por ello, se trata de una disciplina de estudio y experimentación en sí misma.


Relaciones Robot-personas como una interfaz de usuario


En el fondo, la relación robots personas (HRI, 'Human-Robot Interaction') es un caso particular y especial, probablemente el más avanzado y complejo, de la relación de personas con computadores (HCI, 'Human-Computer Interaction') o de las interfaces hombre máquina (MMI, 'Man-Machine Interface') o interfaces de usuario (UI, 'User Interface'), ampliamente estudiados en el ámbito del diseño de sistemas informáticos donde, en los últimos tiempos, se va un poco más allá y se habla incluso de la experiencia de usuario (UX, 'User eXperience').


Los principios de diseño de interfaces de usuario


Dada esa herencia entre Human-Robot Interaction y el diseño de interfaces de usuario, parece que los hallazgos y buenas prácticas que en el campo del diseño de interfaces de usuario se hayan obtenido pueden ser trasladables, al menos hasta cierto punto, al caso de interacciones con robots.

Y eso es lo que hace, precisamente, Robin R. Murphy en un punto de su  libro 'Introduction to AI robotics' identificando algunos principios ampliamente admitidos de buen diseño de interfaces de usuario y trasladándolos al caso de la relación de humanos con robots.

Y para ello nos referencia el libro 'Designing the User Interface: Strategies for Effective Human-Computer Interaction' de Ben Shneiderman, Catherine Plaisant University, Cohen Nova, Steven Jacobs, Niklas Elmqvist y Nicholas Diakopoulos y nos explica brevemente los ocho principios de oro del diseño en él contenidos. Son estos:


  • Consistencia: es decir, que las mismas acciones conduzcan a los mismos resultados o que ciertos elementos tengan siempre el mismo significado (por ejemplo, que el color rojo siempre indique una alerta). Con frecuencia, esa consistencia de la interfaz se extiende no a un único sistema sino que se convierte casi en un estándar 'de facto' en el diseño de interfaces, como podría ser el caso de la metáfora de las ventanas.

  • Atender una usabilidad universal: habilitar el uso de la máquina, digamos el robot, por personas con diferentes 'backgrounds', edad o experiencia, incluyendo el tener en cuenta a personas con discapacidades.

  • Ofrecer un 'feedback' informativo: Esa retroalimentación ayuda al humano a permanecer en sintonía con el estado del robot. Así, un cambio de estado en el robot debería ser evidente mediante algún icono, color, gesto o locución.

  • Diseño de diálogos con clausura: Lo que esta expresión, no muy explícita, quiere decir es que se diseñen las interfaces de manera que el usuario tenga a su disposición en cada momento las acciones realmente pertinentes: todas ellas pero ninguna otra que no aplique en ese momento. Esto puede ser de interés, por ejemplo, en el caso de robots con tareas que exhiben fases claramente definidas, con diferentes posibilidades cada una.

  • Prevenir errores: Un principio bastante evidente, aunque implica foco y mucho trabajo por parte del diseñador. Se trata de introducir mecanismos que, en la medida de lo posible, eliminen la posibilidad de que el usuario se pueda confundir o hacer algo erróneo. Esto puede incluir desde la propia clausura del caso anterior, a forzar formatos en datos de entrada o el pedir confirmación ante ciertos tipos de acciones potencialmente dañinas o irreversibles.

  • Permitir fácilmente la revocación: hablamos precisamente de reversibilidad y se correspondería al típico 'deshacer' que ofrecen hoy en día prácticamente todas las aplicaciones con alguna forma de edición, por ejemplo. Un concepto que, sin embargo, no es tan sencillo de conseguir en robots en la medida que éstos ejecuten tareas físicas y en el mundo físico que no siempre se pueden deshacer, o no fácilmente.

  • Mantener el control: Se trata de que el humano sienta que mantiene el control de lo que hace la máquina, en este caso el robot. En ocasiones esto significa un control directo efectivo del robot pero también incluye, para robots con más autonomía, el que el usuario delegue el control basándose en que entiende perfectamente lo que el robot está haciendo y, por tanto, manteniendo esa sensación de dominar la situación.

  • Reducir la sobrecarga cognitiva: En concreto, reducir al mínimo el uso de la memoria de corto plazo de las personas lo que, dicho de manera simple, significa que el humano no tenga que recordar elementos como largas series de comandos o lo que dicen pantallas diferentes.


Adicionalmente a estos ocho puntos de oro, la autora nos llama la atención también sobre intentar tener en cuenta elementos de ergonomía.


Conclusiones


Un buen diseño de los mecanismos y formas de interacción entre un humano y una máquina, es vital para conseguir su aceptación y su empleo efectivo. Dado que la efectividad de esas interfaces depende en buena medida de contemplar las capacidades cognitivas, las actitudes psicológicas y las herencias culturales de las personas, no resulta extraño que puedan existir principios comunes aplicables a diferentes máquinas y tipos de interacción.

En ese sentido, esos ocho principios que hemos visto, pensados más bien en el ámbito de sistemas de información, resultan bastante aplicables para el caso de la relación entre personas y robots.


miércoles, 29 de marzo de 2023

Conciencia de situación: de la psicología a las implicaciones en consciencia robótica

En mi interés por estudiar todos los fenómenos de conciencia y consciencia asociados a robots e inteligencia artificial, me encuentro con esta idea de la conciencia de situación ('situation awareness'), un concepto que nace de estudios en un terreno algo diferente, como veremos en seguida, pero que creo que resulta muy ilustrativo y puede que incluso aplicable en el terreno de los robots cognitivos.

 

Un apunte terminológico y de traducción


En algún post de este mismo blog relacionado con consciencia robótica, en concreto, por ejemplo, en el titulado ' Modelos multi-nivel para una auto-conciencia robótica' ya he apuntado la dificultad de trasladar al castellano términos en ingles que, con frecuencia, traducimos como conciencia. Entre ellos tenemos 'awareness', 'conscience' y 'consciousness'. Una dificultad que, a las habituales de la traducción de términos más o menos abstractos entre idiomas, se une en este caso la incompleta delineación que de los fenómenos descritos tenemos y que, en este caso, además, según los traduzcamos o entendamos pueden tener connotaciones cognitivas, morales o incluso filosóficas.

En este caso, el tema que ocupa este post se expresa en inglés con la palabra 'awareness' quizá, de las tres palabras empleadas, la que más tiene que ver con los fenómenos cognitivos y menos implicaciones conlleva fuera de ese terreno. En concreto, el término completo es 'situation awareness'. 


Una definición de conciencia de situación


Mica Endsley

¿Qué es esa conciencia de situación ('situation awareness')? Robin R. Murphy en su  libro 'Introduction to AI robotics' nos referencia a Mica Endsley una autoridad en la materia con muchísimas publicaciones en forma de artículos y libros y que define el concepto como:


the perception of the elements in the environment within a volume of time and space, the comprehension of their meaning and the projection of their status in the near future. 


Hay que decir que, aunque en este post trasladaré esta idea al caso de los robots, los estudios de Endsley y el contexto en que es citada por Murphy no se refiere a la conciencia de los propios robots sino a las interfaces hombre-máquina que ayuden a que sea el humano el que tome esa conciencia de situación con la eventual ayuda de máquinas.


Niveles de conciencia de situación


Aclarado el punto anterior, me resulta interesante consignar los tres niveles de conciencia de situación que Endsley distingue y que me encuentro citados en el libro de Murphy. Son los siguientes:


  • Clasificación: en el sentido de discernir qué información sensorial es realmente relevante.

  • Interpretación: interpretar y comprender esa información sensorial y lo que implica tanto en el momento actual, el de la percepción, como en el corto plazo en relación con los objetivos del agente (en general la persona pero, eventualmente y en mi particular interés, un robot).

  • Síntesis y proyección: lo que implica esa información de cara a eventos futuros.

Tres niveles que, en el fondo, es casi estructurar o desgranar la definición dada más arriba pero que, aparte de ayudar a entender mejor la idea, también aporta, en mi opinión, algo así como una arquitectura que se podría usar como base para un modelo computacional de alto nivel útil para traducir a módulos y algoritmos de inteligencia artificial.


Sobre la consciencia y los robots


Dado que los trabajos sobre esta conciencia de situación surgen del estudio de interfaces hombre-máquina y de factores humanos, y dado que realmente hablan de conciencia de situación por parte de los humanos (cómo las máquinas deben ayudar a conseguir esa conciencia de situación por parte de los humanos) en realidad nos movemos en un campo multidisciplinar pero más bien cercano a la psicología.

Sin embargo, me parece bastante claro que, si aspiramos, si es que lo hacemos, a conseguir una consciencia robótica o incluso si nos conformamos con objetivos algo más modestos (aunque no sencillos en absoluto), en robots cognitivos que dispongan ellos mismos de cierta conciencia de su entorno, la implementación en algoritmos de inteligencia artificial de esta conciencia de situación, sería un paso muy relevante y creo que más factible, y con menos implicaciones éticas, que una verdadera y profunda consciencia.


Conclusiones


Simplemente, insistir en que la idea de la conciencia de situación me resulta muy atractiva y, bajo mi particular foco, me resulta interesante como una buena base para la mejora de capacidades cognitivas, de aplicación práctica, en robots avanzados.


lunes, 27 de marzo de 2023

Tres modos de cooperación entre humanos y robots

Retomo, muy brevemente, en este post la temática de los robots y, en concreto, su relación con las personas, con todas sus desafíos técnicos y sus connotaciones éticas. 

En este breve artículo, revisamos algunas de las formas que puede adoptar esa interacción.


Un breve recordatorio acerca de Human-Robot Interaction


Como ya hemos comentado en algún otro post, Human-Robot Interaction es una disciplina que, como claramente se deduce de su denominación, se ocupa de las relaciones entre robots y personas, una muy interesante disciplina de naturaleza ecléctica donde se dan cita elementos de tecnología, psicología, antropología, etc

En un documento seminal, 'Final report for the DARPA/NSF interdisciplinary study on human-robot interaction' se decía que Human-Robot Interaction tenía como objetivo


synergistic teams of humans and robots where teams perform tasks according to their abilities.


es decir, el foco se pone en la colaboración y la realización conjunta de tareas.

Personalmente pienso que, de forma implícita, este declaración de objetivo es ligeramente limitada porque parece orientarse mucho a aspectos muy prácticos, probablemente del ámbito profesional o productivo, y parece dejar de lado, aunque no lo establezca claramente, aspectos más lúdicos o informales.

Sea esta apreciación correcta o no, y asumiendo que, en el fondo, no era esa limitación la intención de los autores, lo cierto es que hay en esa declaración un foco explícito en la colaboración entre personas y robots.


Los tres modos de cooperación entre humanos y robots


Pensando pues ya en esa colaboración, esa cooperación si se prefiere, la roboticista Robin R. Murphy que es co-autora del informe citado, nos habla en su  libro 'Introduction to AI robotics' de tres modos de cooperación entre humanos y robots:


  • Física: en que existe un contacto físico directo entre el robot y la persona, como sucede en el caso de los robots quirúrgicos o, si no directo, sí muy cercano, como podría suceder en el caso de que persona y robot acarreasen conjuntamente una carga. La autora nos dice que en este caso, el foco principal sería la seguridad.

  • Cognitiva: en que persona y robot realizan un trabajo conjunto (que se entiende no meramente físico sino que implica capacidades intelectuales).

  • Social / emocional: en que el robot está diseñado para influir de alguna manera en el comportamiento de la persona de forma explícita o implícita. 


La primera forma de interacción nos acerca mucho al mundo industrial actual, aunque en este suele evitarse el contacto físico precisamente en aras de la seguridad de las personas, un paradigma de separación que se desafía con los actuales robots colaborativos o cobots. También parece propia de algunos robots de servicio como los robots aspiradora o los de transporte que se utilizan por ejemplo en hospitales.

La interacción cognitiva, la cooperación digamos intelectual, creo que se irá incorporando progresivamente en todo tipo de interacciones aunque me parece que, de momento, hay más actividad a nivel de investigación que en aplicaciones prácticas, al menos de interacción sofisticada.

Y la interacción social y emocional nos lleva al campo de los robots sociales e incluso de los agentes conversacionales software avanzados y es, quizá, el campo más interesante y desafiante desde el punto de vista filosófico y ético.


Conclusiones


Nos apuntamos pues, como marco de referencia, esos tres modos de cooperación.

La estructuración de esa formas de interacción no deja de ser, en el fondo, eso, una estructuración, Los robots reales creo que pueden combinar, especialmente los más avanzados, diferentes dosis de cada uno de esos modos de interacción, según las necesidades del caso de uso y los avances técnicos disponibles.

En cualquier caso, como cualquier estructuración, viene bien para ordenar el conocimiento y aplicarlo con más criterio.


lunes, 7 de noviembre de 2022

La tristeza del robot. Una visión literaria sobre roboética

Este fin de semana y con bastante retraso la verdad, he publicado una sencilla reseña de la novela 'Klara y el sol' del Nobel de literatura Kazuo Ishiguro, en mi blog dedicado a la literatura y humanidades: 'El Cielo del Gavilán'.

Y digo que publico la reseña con bastante retraso porque, realmente, leí la novela en Semana Santa, hace ya más seis meses. Y de hecho, allá por Abril, publiqué en este mismo blog el artículo 'Klara o la relación robots-personas desde el punto de vista del robot'.


Perspectivas en las relaciones robots-persona.


En ese artículo, destacaba la novedad que, aunque afrontado desde un punto de vista literario y ficcional, que no técnico, suponía el contemplar las relaciones robot-persona (HRI, 'Human-Robot Interaction'), que tanto me interesan y que ocupan una parte muy importante de mi labor dentro de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), no desde la perspectiva habitual, que es una perspectiva externa, desde fuera, un poco desde la perspectiva humana sino, por el contrario, mirarlas desde el lado del robot.

Es evidente que esa perspectiva sólo puede adoptarse desde la ficción, porque a despecho de fantasías e incorrecciones, los robots actuales están muy lejos de tener sentimientos, ni consciencia ni, por lo tanto, ser capaces de aportar una visión propia, una perspectiva del robot, de las relaciones robots-persona.

'Klara y el sol', pues, podría considerarse una suerte de 'experimento conceptual', que no real.

Antes de continuar, aclarar, sin desvelar demasiado de la novela, que Klara es lo que en la novela denomina una Amiga Artificial, un robot humanoide destinado a servir de compañía a niños y adolescentes. Y que la novela nos cuenta la existencia de Klara, desde que se encuentra expuesta en una tienda y aspira a que algún humano la adquiera, hasta un final que no desvelaré aunque, en el fondo, es lo que inspira este post.


La tristeza del robot


Portada de 'Klara y el sol'

En la relación de Klara con los humanos, y en la constante observación y análisis de su comportamiento Klara incurre en alguna interpretación errónea o confusa de lo que sucede. Pero siempre, al fin y al cabo está programada para ello, intentando agradar, acompañar y ayudar a Josie, su amiga humana.

Se nos presenta a Klara como bastante racional y neutral en sus evaluaciones y decisiones, al fin y al cabo es un robot, pero durante toda la novela se nos recuerda que Klara es una Amiga Artificial especial, más observadora de lo normal y, aunque bajo esa capa de neutralidad, y aunque nunca se afirme tan directamente ni de muestre de forma explícita, Klara parece tener sentimientos.

La verdad es que es difícil no empatizar con el personaje de Klara y cogerle un cierto cariño. Al menos eso me ha sucedido a mí.

En ese final que no debo desvelar, existe, pese a la capa de neutralidad, lo que yo interpretaría como una cierta tristeza en Klara, una tristeza que tiene que ver con su propio destino y con el trato que ha recibido de los humanos, muy especialmente de Josie, a lo largo de su existencia.   


La tristeza de los humanos


Portada de 'Los ingratos'

Ha querido la casualidad que hace pocos días haya finalizado la lectura de la novela 'Los ingratos' de Pedro Simón. La novela no tiene nada que ver en su argumento con 'Klara y el sol', al menos en su argumento formal. 

En este caso se nos habla de la vida de una familia en la España de los años 70 o así, contada desde la perspectiva de David ('Currete'), el hijo menor, del traslado a un pueblo donde la madre ejerce de maestra, de la vida en ese pueblo, y de la relación de amistad que establece con Emérita, una mujer sencilla y sorda, que entra al servicio de la familia.

De nuevo, no quiero desvelar mucho del contenido pero debo decir que no he podido evitar establecer el paralelismo, la correspondencia de Emérita con Klara y de David con Josie.

Y es que al final, se intuye en Emérita una tristeza similar a la que creo observar en Klara ... y por muy parecidos motivos.


Klara y la ética de los robots


Al hablar de Klara, he dicho que percibo en tristeza en su interior y que es difícil no empatizar con ella. 

Y esto no es más que una demostración del poder de la antropomorfización, de la asignación de capacidades y sentimientos humanos a las cosas o seres con que nos relacionamos, fenómeno del que hemos hablado abundantemente en este blog y que es básico para entender y tratar las relaciones robots-persona, desde el punto de vista operativo y de diseño, pero sobre todo desde el punto de vista ético. Estoy suponiendo sentimientos en Klara, estoy suponiendo una forma de entender la existencia similar a la humana y estoy sintiendo empatía y simpatía por ella.

Pero hay otro aspecto también de vertiente ética que queda iluminado, o al menos ilustrado, de alguna manera por la novela de Ishiguro. 

En algunos tratados de ética sobre robots, se analiza si debemos considerarlos como cosas sin más o si debemos concederles un status especial. Más específicamente, se cuestiona si tiene alguna resonancia moral el hecho de maltratar a un robot, más allá de, quizá, poderlo considerar un ataque a la propiedad cuando el robot no es nuestro. Se plantea, pues, si es lícito o no, desde un punto de vista moral, maltratar a un robot.

Y aunque no percibo un consenso absoluto, si creo detectar una tendencia mayoritaria hacia considerar inmoral el maltrato de un robot, y más cuanto más se parezca ese robot a un animal o a un humano. Y el razonamiento no se basa tanto en concederle a los robots status moral o sugerir que sean sujetos de derecho, sino que se basa en lo que ese comportamiento enseña y demuestra del humano que lo comete.

¿Qué tipo de sentimientos y actitudes morales subyacen en un humano capaz de maltratar a un robot que habla, que simula sentimientos, que en cierto sentido ha sido su juguete, su mascota, su amigo, quizás? ¿Qué principios morales nos sugiere ese humano? Y, sobre todo, ¿Qué nos hace pensar que en relación con personas, ese 'maltratador de robots' va a tener un comportamiento exquisito y completamente moral? Debemos, parece, evitar el maltratar a un robot, no tanto por el robot en sí, sino por lo que demuestra y afecta al humano.

Es, en cierto sentido, el paralelismo en la relación humano-robot y humano-humano, donde puede subyacer gran parte del peso ético del comportamiento hacia los robots.  Y si no, sugiero al lector que se haga con las dos novelas que menciono, 'Klara y el sol' y 'Los ingratos' (anticipo que, bajo mi punto de vista, ambas son valiosas e interesantes desde el punto de vista exclusivamente literario), las lea y luego compare, como he sugerido en este post, a Klara con Emérita, a Josie con David y valore, desde el punto de vista ético la relación de Josie con Klara y de David con Emérita. 


Conclusión


En más de una ocasión he dicho (y he leído), que la relación robots-personas y la roboética, nos hablan, en el fondo, más que de los robots, de los propios seres humanos, de nuestros valores, nuestros comportamientos, nuestra auto-percepción y nuestra ética.

Y la ciencia ficción es un buen campo para la experimentación conceptual, especialmente en lo relativo del comportamiento y a moral.

Así que, sea una percepción mía, o sea real, la supuesta tristeza de Klara puede enseñarnos mucho sobre los seres humanos y nuestras relaciones.


lunes, 18 de abril de 2022

Klara o la relación robots-personas desde el punto de vista del robot

En esta Semana Santa, he aprovechado para leer la novela 'Klara y el sol' del Nóbel de origen japonés, aunque afincado en Reino Unido, Kazuo Ishiguro.

Una novela que se puede encuadrar, creo, dentro de la ciencia-ficción, que me ha gustado y que en su momento reseñaré en otros de mis blogs, en concreto el dedicado a literatura y humanidades: 'El cielo del Gavilán'.

Sin embargo, hay algunos elementos argumentales de la novela que guardan estrecha relación con temas no específicamente literarios y que he venido tocando con frecuencia en este blog durante los últimos dos años aproximadamente. Temas que tienen que ver con los robots, los robots sociales, los robots humanoides, la relación robots-personas y las implicaciones filosóficas y éticas que trae consigo esta relación.

No puedo profundizar mucho en alguna reflexión que me ha suscitado la novela sin desvelar demasiado acerca de la historia que nos cuenta, así que me contendré, pero sí quería, aunque fuese superficialmente, apuntar un tema que me ha parecido interesante.


Acerca de la novela 'Klara y el sol'


Novela 'Klara y el sol'
No quiero ser, como digo, muy explícito en la explicación del argumento de 'Klara y el sol', para no desvelar nada a aquella persona que no haya leído la novela pero que desee hacerlo en algún momento.

Sí puedo decir, sin caer, creo, en el 'spoiler', algún detalle que es poco más que lo que ya anuncia la contraportada del libro en su edición de Anagrama.

Klara es lo que en la novela denominan una AA ('Amiga Artificial'), es decir, un robot humanoide pensado para acompañar a niños (aunque el hecho de que se trate de un robot humanoide es lo que se deduce sin lugar a dudas pero lo cierto es que la palabra 'robot' sólo aparece en la novela muy al final y el término humanoide no lo hace en ningún momento) .

Un robot humanoide que, conviene decirlo, es muchísimo más avanzado que ningún robot de que dispongamos realmente en la actualidad ni que parece viable dispongamos en un plazo breve... puede que nunca. Se trata de un robot inteligente, consciente y puede que incluso sensible.

Un robot en el que, además, como se deduce de su función, juega un papel crucial todo lo que tiene que ver con sus habilidades sociales y su relación con las personas. 


Relación robots-personas (Human-Robot Interaction, HRI)


La relación robots-personas ('Human Robot-Interaction', HRI) por sus siglas en inglés, es una disciplina compleja e interesantísima, que estudia esa interacción entre humanos y robots y la mejor forma de diseñar a éstos últimos para una relación natural y satisfactoria con las personas.

Kazuo Ishiguro
Se trata de una rama de estudio que en el fondo es multidisciplinar, donde se aúnan elementos técnicos con otros psicológicos e incluso sociológicos y antropológicos.

Una rama donde de tienen en cuenta la detección y expresión de emociones, el uso del espacio, del movimiento, de la mirada, de la distancia social y tantos y tantos elementos que configuran la interacción social entre humanos... y que por tanto intentan imitar los robots.

En general, en HRI se parte de entender cómo se desarrollan las relaciones entre humanos para intentar trasladar las conclusiones al comportamiento que deberían exhibir los robots y que éstos utilicen el lenguaje, los gestos, la distancia, la iniciativa etc de una forma similar a los humanos, de manera que el comportamiento social de estos robots sea natural, aceptable por los humanos y efectivo en la relación.

Por decirlo de alguna forma, la perspectiva en el fondo es la humana. Entendemos los gustos y necesidades de los humanos e intentamos trasladar las conclusiones al diseño y comportamiento del robot.

Pero, realmente, no nos importa mucho el robot en sí mismo, siempre que exhiba el comportamiento adecuado. Y eso es así, y probablemente sea lo correcto, porque en el fondo el robot es una máquina a la que no le atribuimos ni consciencia, ni sentimientos, ni verdadera autonomía ni, pese a los interesantes debates al respecto, agencia moral ni mucho menos paciencia moral. 


La perspectiva de Klara


Y de los varios aspectos que me han llamado la atención de 'Klara y el sol', algunos de los cuales llaman a una reflexión profunda, sólo traeré a colación en este post un  aspecto muy concreto y quizá, seguramente, no el más importante.

Toda la novela está narrada en primera persona. Es Klara quien nos cuenta su historia. Es el robot quien explica sus vivencias y su interacción con los humanos.

Y, en ese sentido, es un más que interesante cambio de perspectiva para esa relación robots-personas. Ya no se enfoca desde el humano hacia al robot, sino que en este caso se hace desde el robot hacia el humano.

Y observar el comportamiento humano desde la perspectiva del robot nos puede llevar a preguntarnos si ese comportamiento humano es correcto, si es ético o moral el comportamiento que los humanos tienen con Klara. De la misma forma que ya hoy en día hay planteamientos filosóficos serios acerca de si es admisible desde un punto de vista ético maltratar a un robot (con una respuesta en general negativa) y qué dice ese maltrato de la moralidad del humano, la novela 'Klara y el sol' podría llevar a afinar aún más el cuestionamiento acerca de qué es ético y qué no en la relación con los robots. 

Se trata de un debate especulativo e hipotético porque, como digo, no existe ni de lejos en la actualidad ningún robot comparable con Klara, pero que, en el fondo, y como muchos debates que tienen que ver con la ética de los robots, al final lo que nos conducen es a preguntarnos realmente sobre la naturaleza humana y sobre lo que es ético o no para los humanos.


Conclusión


Me quedo con las ganas de ser más explícito en lo que he contado en el post y también de trasladar otras ideas, reflexiones e incluso sentimientos que me ha provocado la lectura del 'Klara y el sol'. Pero lo dejaré como está, apenas una insinuación, para no privar a nadie del placer de leer esta novela y de reflexionar, con seriedad, sobre ella.