miércoles, 16 de junio de 2021

Un mapa de explicabilidad de algoritmos de inteligencia artificial

Uno de los atributos que se empieza a buscar en los algoritmos de inteligencia artificial es el de su explicabilidad, es decir, que se pueda saber, de alguna forma, cuál ha sido la 'línea de razonamiento' seguida por ese algoritmo para llegar a una conclusión.

Esa petición de explicabilidad se toma como una exigencia de carácter ético e incluso regulatorio.


El problema de la explicabilidad de los algoritmos


Hace un tiempo defendí en este blog que, al contrario de lo que se suele afirmar, los algoritmos de inteligencia artificial se explican perfectamente puesto que, en un momento dado, en un cierto estadio de aprendizaje, con una foto congelada de parámetros, su comportamiento es perfectamente determinista y con arreglo a reglas y parámetros perfectamente conocidos.

El problema de la explicabilidad reside, más bien, en que la forma en que la mayoría de los algoritmos podrían 'explicar su comportamiento', nada tiene nada que ver con el modo de razonamiento humano y, por tanto, a efectos prácticos es como si no se explicasen. No porque no lo hagan, sino porque no  entendemos la explicación.

¿Y cómo de importante es que un algoritmo sea explicable en términos humanos?

En mi último libro, 'Robots en la sombra', defiendo que la explicabilidad es importante en algoritmos que tratan problemas con dos características:

  • Que nos importa mucho la decisión, porque nos impacta de manera notable en nuestras vidas
  • Que las reglas de esa decisión no son cien por cien claras ni siquiera cuando la decisión las toma un humano

¿De qué tipo de decisiones hablamos?

Pues de cosas como la selección para un empleo, un diagnóstico médico, la concesión de un préstamo o un juicio. En todos estos casos, el resultado de la decisión nos importa mucho, pero las reglas de decisión no son cien por cien claras, no son absolutamente deterministas, tampoco cuando decide un humano.

Si las decisiones no nos importan mucho, nos contentamos con que el algoritmo tenga una tasa de acierto razonable, en general igual o superior a la de un humano. Y si las reglas seguidas fueran absolutamente claras y deterministas no necesitaríamos más explicación, puesto que las propias reglas deterministas nos dirían cuál es esa explicación. 

Así que queremos la explicabilidad, al menos en ciertos casos.

Y lo que ocurre es que algunas de las familias de algoritmos más potentes hoy en día, los que mayores avances están proporcionando, los que lo consiguen resultados con una mayor precisión (típicamente los que forman parte de la amplia familia del deep learning), no exhiben la explicabilidad deseada.


Un mapa de explicabilidad


El asunto de la explicabilidad de la Inteligencia Artificial se encuentra en plena investigación, pero unas de las estrategias que se han propuesto es la de sustituir un algoritmo no explicable por otro que sí lo sea y que produzca resultados equivalentes. La dificultad de esta estrategia es que esa equivalencia no es total ni mucho menos, que unos algoritmos son más potentes, o más precisos que otros o tienen capacidades propias que no exhiben otros. No existe, ni mucho menos, una total intercambiabilidad.

En ese sentido, y para orientar la decisión o al menos la comprensión, puede ser interesante disponer de un mapa de familias de algoritmos con su nivel de explicabilidad y su precisión relativas. Y eso es lo que me he encontrado leyendo el libro 'Proyectos de Inteligencia Artificial' de Jaume Miralles. El autor incluye la figura que se muestra abajo y que toma del 'DARPA XAI Project'. 


En ella se 'mapean' cinco familias de algoritmos en un plano bidimensional, una de cuyas dimensiones es la explicabilidad y la otra la precisión de las predicciones proporcionadas por el modelo. Podemos observar que, en general, y por desgracia, a mayor precisión menor explicabilidad y viceversa. También podemos ver cómo, en efecto, el deep learning se sitúa como una familia algorítmica de alta precisión pero muy baja explicabilidad. Y cómo, en el extremo contrario, nos encontramos con los árboles de decisión, la familia con mayor explicabilidad pero menor precisión.


En conclusión


El mapa es ilustrativo tanto para posicionar los algoritmos como, quizá aún más, para comprender que en estos momentos estamos en un momento difícil para la explicabilidad. Y es difícil porque la explicabilidad, caso de conseguirse, suele ser a costa de la precisión.

Y tampoco queremos renunciar a la precisión, a la innovación y al progreso tecnológico ¿no?

Confiemos y demos tiempo a los investigadores a ver si encuentran mejores soluciones.


lunes, 14 de junio de 2021

Empatía con los robots: la mejor cara de la antropomorfización

En este blog ya hemos hablado repetidamente de la tendencia de los humanos a la antropomorfización de las cosas, objetos y animales con que nos relacionamos, y algunas de las consecuencias que esto tiene, en general más negativas que positivas, o al menos con riesgo, cuando de lo que hablamos de la relación con robots.

Así, por ejemplo, hemos hablado recientemente de ciertos riesgos cuando esa antropomorfización invade el campo jurídico y hace que legisladores y juristas se dejen arrastrar por la llamada falacia del androide.

Sin embargo, la antropomorfización también tiene sus aspectos positivos. Usada con habilidad, pero también con criterio y ética, puede favorecer la calidad de las interacciones de las personas con agentes inteligentes e, incluso, ayudar a las personas en ciertas situaciones, incluso, de vulnerabilidad como en ancianos o niños con trastornos del espectro autista.

Y, además, hay un detalle que resulta incluso bonito y esperanzador en esta nuestra tendencia a antropomorfizar a los robots: se trata de la empatía hacia los robots y lo que eso muestra de la naturaleza humana.

Ya hacia final de su libro 'The new breed', la roboticista Kate Darling nos habla del fenómeno de la empatía de los humanos hacia los robots: cómo, en cierta manera, los humanos nos 'ponemos en el lugar de los robots' y sufrimos cuando pensamos que estos sufren y sentimos compasión por ellos.

Kate Darling con un robot Pleo
Darling describe algunos experimentos que ha realizado al respecto como cuando pidió a un grupo de personas en un taller que maltrataran a un robot dinosaurio (Pleo) y éstas se resistieron a hacerlo, o la experiencia real de soldados que han intentado salvar de la destrucción a robots diseñados explícitamente para destruir bombas aunque eso conlleve la propia destrucción del robot.

Desde un punto de vista de racionalidad pura, no tiene sentido sentir empatía por un robot y sufrir con ese robot, puesto que el robot es una cosa y no sufre en absoluto aunque, como en el caso de Pleo, pueda simular estar sufirendo. Y estrictamente hablando tiene poco sentido arriesgar la vida por un robot anti-bomba por más que pueda ser destruido en el curso de 'su trabajo'. Y, sim embargo, hay, como decía, un fondo esperanzador en ese comportamiento porque, como dice Kate Darling.


Our empathy for robots is a revealing part of our psychology


La tendencia a la empatía forma parte de nuestra manera de ser, de nuestra naturaleza. No podemos evitar sentir esa empatía hacia los robots porque el sufrimiento de un robot (como el de otra persona, un animal e incluso otras cosas) activa en nosotros nuestro instinto hacia la empatía, hacia la ayuda a los demás y la tendencia a evitar el sufrimiento de otros. Y eso puede que sea racionalmente absurdo, pero creo que pocos negaremos que es bueno, que es una demostración de humanidad y una esperanza  de cara, no sólo al buen comportamiento, no solo con los robots, ni siquiera especialmente con los robots. sino también, muy especialmente, entre nosotros, entre las personas. Porque. como nos dice Kate Darling:


When I see a child hug a robot, or a soldier risk life and limb to save a machine on a battlefield, or a group of people refuse to hit a baby dinosaur robot, I see people whose first instinct is to be kind.


La empatía, incluso la empatía hacia los robots, es una manifestación de un instinto de bondad.

Así que si, es necesario ser conscientes del fenómeno de la antropomorfización, es necesario estar muy atentos a los riesgos que sin duda supone en el diseño y uso de la interacción robots-personas y evitarl esos riesgos con un criterio ético. 

Pero tampoco nos fustiguemos: la empatía que podemos sentir hacia un robot, en el fondo, habla de nosotros, habla bien de nosotros y, paradójicamente, de nuestra humanidad.


viernes, 11 de junio de 2021

Una visión muy completa de la computación afectiva por Rafael Calvo y colaboradores

'The Oxford Handbook of Affective Computing' es un intento, creo que bastante conseguido, de reunir el estado de arte general de una disciplina tan novedosa y heterogénea como es el 'affective computing', es decir, el procesamiento computacional de las emociones tanto para su detección en humanos como para su expresión por parte de agentes inteligentes incluyendo a robots.

Se trata de la típica obra coral, con muchísimos autores diferentes, a pesar de lo cual el discurso general está bastante bien hilado y hay una buena coherencia y completitud temática, cosa que no siempre sucede en este tipo de obras. Es un libro bastante extenso y de una complejidad entre media y alta pero se puede conseguir sacar bastantes conclusiones y aprender mucho con un esfuerzo razonable.

El volumen está compuesto por 41 capítulos que, tras uno introductorio, se agrupan a continuación en cinco partes de temáticas bien diferenciadas. En concreto, la estructura y esbozo de contenidos es la siguiente
  • '1. Introduction to affective computing': Un capítulo inicial que, más que presentar el campo del affective computing como tal, lo que hace es explicar la estructura y contenidos del libro.

  • 'SECTION ONE - THEORIES AND MODELS': Se centra en los fundamentos teóricos del affective computing intentando conectar las diferentes perspectivas que integran este campo tan multidisciplinar como son la psicología, la neurociencia, la informática, la lingüística, etc. Incluye ocho capítulos:

    • '2. The Promise of Affective Computing': donde Rosalind Picard, la fundadora de esta disciplina, cuenta, desde una perspectiva bastante personal, el nacimiento de la misma y sus primeros pasos.

    • '3. A Short History of Psychological Perspectives of Emotion': ofrece también una perspectiva histórica, ahora específica de la cara psicológica del afective computing y cómo se ha ido contestando a cinco preguntas: (1) ¿Cómo se generan las emociones? (2) ¿Cómo influyen en la cognición y el comportamiento? (3) ¿Cuál es la naturaleza de las emociones? (4) ¿Cómo han evolucionado los sistemas de emociones y (5) ¿Cuáles son las estructuras y procesos cerebrales involucrados?

    • '4. Neuroscientific Perspectives of Emotion': Resume la literatura relativa a emociones en el campo de la neurociencia y se debaten las bases neurobiológicas de las emociones básicas (miedo, ira, repulsión, felicidad y tristeza) y su carácter innato o no.

    • '5. Appraisal Models': Desarrolla los llamados 'modelos de evaluación', una de las teorías de las emociones más usadas en affective computing.

    • '6. Emotions in Interpersonal Life: Computer Mediation, Modeling and Simulation': analiza cómo la dinámica de la interacción interpersonal puede modificarse en las interacciones mediadas por ordenador como en el caso del correo electrónico o las redes sociales.

    • '7. Social Signal Processing': presenta el campo del procesado de señales sociales que, en cierto sentido, es un super-conjunto de la computación afectiva.

    • '8. Why and How to Build Emotion-Based Agent Architectures': Aparte de las motivaciones para la construcción de agentes emocionales, el capítulo revisa algunas de las teorías sobre emociones y cómo se usan para crear agentes artificiales capaces de adaptarse a las emociones de los usuarios.

    • '9. Affect and Machines in the Media': repasa cómo se han tratado en los medios de comunicación los agentes con capacidades afectivas y cómo ese tratamiento ha influido en la investigación en el campo del affective computing.

  • 'SECTION TWO - AFFECT DETECTION': Se centra, como cabe esperar por el nombre, en los mecanismos (sensórica y procesamiento) que permiten la detección de emociones. Incluye ocho capítulos:

    • '10. Automated Face Analysis for Affective Computing': explica el uso de la visión artificial para medir y codificar el comportamiento facial, describiendo las más recientes técnicas de seguimiento, registro y extracción. Además, muestra algunas aplicaciones como la detección de la angustia, depresión o desengaño o estudios de coordinación interpersonal.

    • '11. Automatic recognition of Affective Body Expressions': se centra ahora en las expresiones corporales de la emoción, los dispositivos disponibles para su detección,, el reconocimiento de emociones a partir de esa información capturada y las diferentes aplicaciones.

    • '12. Speech in Affective Computing': Se concentra en el tratamiento del habla en computación afectiva y muestra cómo se genera ese habla emotiva en los órganos vocales, cómo procesar y extraer de la señal características acústicas y de prosodia y cómo lleva eso al desarrollo de detectores de afecto basados en el habla.

    • '13. Affect Detection in Texts': Habla del denominado análisis de sentimiento, es decir, la detección de emociones a partir del lenguaje. Explica el estado del arte en cuanto a detección de emociones a partir de texto y cierra con dos temas avanzados como el reconcimiento del humor y el uso de características extralingüísticas como puede ser la música para la detección de emociones.

    • '14. Physiological Sensing of Emotion': Aporta una breve historia de la psicofisiología y una introducción a los sensores, medidas y características fisiológicas que se pueden usar en la detección de emociones.

    • '15. Affective Brain-Computer Interfaces: Neuroscientific Approaches to Affect Detection': Revisa la teoría subyacente a los enfoques neurofisiológicos para la detección de emociones, tratando los aspectos técnicos, y muy especialmente el tratamiento de señales EEG y también debate los retos y algunas aplicaciones potenciales.

    • '16. Interaction-Based Affect Detection in Educational Software': se presenta una técnica alternativa al uso de sensores en que se intentan deducir las emociones a partir de la interacción del usuario con el software.

    • '17. Multimodal Affect Recognition for Naturalistic Human-Computer and Human-Robot Interactions': de alguna manera proporciona una visión integrada al tratar la detección de emociones multimodal, es decir, integrando varios mecanismos de los tratados en los capítulos anteriores.

  • 'SECTION THREE - AFFECT GENERATION': Cambia el punto de vista para abordar la generación de emociones o, por mejor decir, la expresión o simulación de emociones, y lo hace referido a los denominados agentes conversacionales con cuerpo (ECAs - 'Embodied Conversational Agents').

    • '18. Facial Expressions of Emotions for Virtual Characters': capítulo que comienza atacando el problema de la generación de expresiones faciales ligadas a las emociones que se quieren expresar así como la medición de las expresiones emocionales de esos agentes y la percepción de los usuarios.

    • '19. Expresing Emotion Through Posture and Gesture': Se salta ahora a la postura y el gesto, expresado mediante pantallas extáticas o también mediante el verdadero movimiento y se introducen algunos lenguajes de marcas existentes para ello.

    • '20. Emotional Speech Synthesis': aborda la introducción de elementos emocionales en la labor de síntesis de voz, eliminando la monotonía y la entonación plana. Se describe el modelado y las aproximaciones técnicas existentes.

    • '21. Emotion Modeling for Social Robots': En muchos casos los ECA siguen siendo puro software. En este capítulo se presenta esa expresión de emociones en robots sociales y se demuestra cómo comportamientos muy sencillos del robot pueden transmitir de manera efectiva emociones.

    • '22. Preparing Emotional Agents for Intercultural Communication': Estudia la problemática de los agentes conversacionales y robots sociales que tienen que actuar en diferentes contextos sociales y culturales.

  • 'SECTION FOUR - METHODOLOGIES AND DATABASES': Trata de las técnicas específicas de la computación afectiva o de la adaptación de técnicas procedentes de otras disciplinas al caso concreto de la computación afectiva. Incluye ocho capítulos, a saber:

    • '23. Multimodal databases Collection, Challenges and Chances': Describe la mecánica y desafíos para la recolección y etiquetado de datos multimodales que reflejen emociones de cara al entrenamiento de los algoritmos y se muestra una mecánica en 10 pasos. Además, identifica un conjunto representativo de bases de datos audiovisuales y multimodales existentes.

    • '24. Ethical Issues in Affective Computing': se introduce en las problemáticas éticas y la aplicación de códigos éticos.

    • '25. Research and Development Tools in Affective Computing': Se muestran algunas de las herramientas existentes.

    • '26. Emotion Data Collection and Its Implications for Affective Computing': se concentra sobre todo en las problemáticas que surgen cuando un investigador intenta formalizar su entendimiento intuitivo de las emociones en un modelo computacional.

    • '27. Affective Elicitation for Affective Computing': Se trata de cómo obtener de manera fiable información sobre emociones de individuos para su uso posterior en modelado o entrenamiento y todo ello en situaciones reales. Se comentan estímulos como videos, música, etc y también métodos activos que implican involucrar a personas en interacciones con otras o bien pedirles que adopten expresiones o posturas.

    • '28. Crowdsourcing Techniques for Affective Computing': Se comenta la posibilidad del crowdsourcing para el etiquetado de datos para entrenamiento.

    • '29. Emotion Markaup Language': Se presenta un lenguaje de marcas de emociones ('EmotionML') que es el recomendado por el W3C.

    • '30. Machine Learning for Affective Computing Challenges and Opportunities': los algoritmos de detección de emociones suelen ser algoritmos de machine learning de aprendizaje supervisado, por lo que se tratan algunos detalles específicos en aspectos como el etiquetado o la extracción de características.

  • 'SECTION FIVE - APPLICATIONS OF AFFECTIVE COMPUTING': Destaca algunas de los usos existentes o emergentes del affective computing, a lo largo de once capítulos:

    • '31. Feeling, Thinking, and Computing with Affect-Aware Learning Techologies': proporciona ejemplos de dos tipos de técnicas: sistemas reactivos que responden cuando se detecta un estado emocional y sistemas proactivos que promueven o mitigan la posibilidad de la aparición de un estado emocional.

    • '32. Enhancing Informal Learning Experiences with Affect-Aware Technologies': Muestra la aplicación de las tecnologías afectivas en entornos de aprendizaje informal como museos o zoos.

    • '33. Affect-Aware Reflective Writing Studios': estudia cómo se pueden usar las nuevas tecnologías de modo que los escritores reflexionen en el proceso que adoptan incluyendo aquellas circunstancias que les hacen disfrutar más de la escritura.

    • '34. Emotions in Games': revisa estudios que se sitúan en la frontera entre la emoción, el diseño de juegos y tecnología de forma que ayuden a diseñar interacciones lúdicas basadas en emociones.

    • '35. Autonomous Closed-Loop Biofeedback: An Introduction and a Melodious Application': Estudia los sistemas de lazo cerrado con feedback biológico afectivo y lo aplica a validar un reproductor de música afectivo.

    • '36. Affect in Human-Robot Interaction': Se estudian las relaciones afectivas con robots preguntándose cómo eso puede añadir valor o si ese tipo de robots pueden ser compañeros válidos.

    • '37. Virtual reality and Collaboration': discute cómo entornos virtuales colaborativos pueden dar respuesta a comportamientos emocionales verbales y no verbales y la aplica a la interacción con avatares que actúan como reflejo de la propia identidad..

    • '38. Unobstrusive Deception Detection': Explora algoritmos y tecnologías que se pueden usar para detectar el engaño. Se muestran las bases psicológicas, sus correlatos fisiológicos, tecnologías automatizadas y aplicaciones potenciales.

    • '39. Affective Computing Emotional Development and Autism': Se estudia la aplicación de técnicas afectivas en el tratamiento de niños con trastornos del espectro autista.

    • '40. Relational Agents in Health Applications Leveraging Affective Computing to promote healing and Wellness': Se estudia el uso de avatares para simular la relación médico-paciente.

    • '41. Cyberpsichology and Affective Computing': Se propone el uso de tecnología afectiva en un contexto más amplio de desarrollo personal, lo que se denomina computación positiva.

Personalmente puedo decir que este libro me ha gustado mucho y que lo he disfrutado en gran medida. Es cierto que la temática que aborda me parece apasionante pero también creo que tiene mérito el propio libro porque, a pesar de su carácter científico-técnico, con un poco de 'background' se entiende bastante bien y el desarrollo no es en absoluto farragoso o al menos a mi no me lo ha parecido.

Con la única reserva de que es un libro que, en el momento de leerlo ya tiene cinco años (y eso puede ser mucho en un terreno tan innovador y dinámico), me parece que realmente es ahora mismo 'la Biblia' de la computación afectiva y toda una referencia en este campo pero incluso también en otros relacionados como el Human-Robot Interaction.

Un gran libro que no puedo menos que recomendar para quien esté realmente interesado en estas temáticas y esté dispuesto a dedicarle el tiempo de lectura que este libro requiere.

Rafael A. Calvo

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Rafael A. Calvo
Rafael A. Calvo es Presidente del Design Engineering en el Dyson School of Design Engineering, Imperial College London. También es co-líder en el Leverhulme Centre for the Future of Intelligence y co-editor de IEEE Transactions on Technology and Society. Hasta 2019 fue director del Wellbeing Technology Lab y del Software Engineering Group que se centra en el diseño de sistemas que soportan el bienestar en áreas como la salud mental, la medicina y la educación. En 2015 Calvo fue designado como Future Fellow del Australian Research Council para estudiar el diseño de tecnología soporte del bienestar.

Actor entusiasta en la búsqueda de un diseño de la tecnología más ético, Rafael es miembro de la IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, una parte de la AI for Good Global Summit de las Naciones Unidas, y en 2019 se unió al Leverhulme Centre for the Future of Intelligence.

Ha sido acreedor a cinco premios sobre enseñanza y publicado cuatro libros y más de 200 artículos en los campos de HCI, diseño soporte del bienestar, tecnologías de aprendizaje, computación afectiva e inteligencia computacional. Entre sus libros se incluyen 'Positive Computing: Technology for Wellbeing and Human Potential' y el 'Positive Computing: Technology for Wellbeing and Human Potential'. Ha trabajado globalmente en universidades, institutos, e instituciones de formación profesional incluyendo el Language Technology Institute en la Carnegie Mellon University, Universidad Nacional de Rosario, y una estancia sabática en la University of Cambridge y la University of Memphis.

Rafael ha trabajado también como consultor tecnológico para proyectos en los Estados Unidos, Brasil, Argentina y Australia. Es editor asociado de Medical Internet Research – Human Factors (JMIR-HF) y antiguo editor asociado del IEEE Transactions on Learning Technologies y el IEEE Transactions on Affective Computing.

Tiene un doctorado en Inteligencia Artificial aplicada a la clasificación automática de documentos y también ha trabajado en la Carnegie Mellon University, Universidad Nacional de Rosario y como consultor de proyectos a lo largo de todo el mundo.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @Rafael_A_Calvo.

miércoles, 9 de junio de 2021

Mi Actividad: mi primer podcast con "Caminos de Knowmad" sobre Marca Personal y Modelo de Negocio Personal

Este Miércoles 9 de Junio me estreno como 'podcaster' y lo hago como parte de la comunidad "Caminos de Knowmad", una comunidad de profesionales del conocimiento independientes.


La comunidad "Caminos de Knowmad"


La idea de la comunidad es transmitir la experiencia en esa actividad de trabajadores del conocimiento, brindando experiencias, ideas y técnicas a todo aquel interesado en emprender este camino, avanzar por él o, simplemente, conocerlo. Y usando, para ello, como herramienta, como única herramienta, la voz, el podcast.

Se trata, al menos por el momento, de una comunidad reducida, fundada por Virginia Cabrera Nocito y Alejandro de Fuenmayor y donde nos hemos integrado, tras amable invitación, profesionales tan diversos como Dánae Cortés, Roberto García Esteban, Cristina Hombrados, Juan Martínez de Salinas o yo mismo.

El plan actual es lanzar un podcast semanal, que se estrena los Miércoles.

Si te interesa seguir a la comunidad, puedes escuchar los podcasts en anchor, en la dirección, anchor.fm/somos-knowmads aunque también está disponible en las plataformas plataformas de podcast.

Y para estar al tanto de otros temas relacionados con la comunidad, también nos puedes seguir en twitter, en @caminos_knowmad.


Mi primer episodio: Marca Personal y Modelo de Negocio Personal


En este mi primer episodio, y mi debut como podcaster, extiendo el concepto de marca personal para llegar, en una visión más holística y estratégica, a lo que he denominado el modelo de negocio personal.

En el podcast te explico algunos fundamentos, te cuento cómo aplicarlo al caso de un profesional independiente y de paso te dejo caer alguna experiencia personal.

Lo puedes escuchar en este enlace.


Episodios hasta la fecha


Aunque lo mejor que puedes hacer para ponerte al día es visitar la página de caminos de knowmad, te dejo la lista con los episodios publicados hasta la fecha:



lunes, 7 de junio de 2021

Los robots y las relaciones asimétricas

Muchas de las interacciones que mantenemos con robots son absolutamente neutrales, prácticas, operativas.

Los operarios de las industrias robotizadas en muchos casos apenas interaccionan con los robots, por motivos entre otras cosas de seguridad física, y cuando lo hacen es para labores, por ejemplo, de programación o mantenimiento.

Incluso en el caso de los modernos robots colaborativos o cobots, robots pensados para colaborar con personas en entornos normalmente industriales, no hay apenas una interacción más que la realización colaborativa y coordinada de tareas productivas u operativas. Es decir, seguimos en un terreno muy neutral.

Incluso, cuando en nuestros hogares utilizamos los robots aspiradora, en general hacemos poco más que pulsar el botón de arranque, ocuparnos de su batería y vaciar el depósito de polvo.

Se trata de unas relaciones en que nos importan poco conceptos que veremos a continuación como la simetría, igualdad o reciprocidad. Y no nos preocupan, precisamente, porque hablamos de una interacción meramente operativa y práctica.


Relaciones afectivas con robots


Sin embargo, cuando hablamos de robots sociales, e incluso de voicebots o altavoces inteligentes más o menos avanzados, la cosa cambia. Y la cosa cambia porque en ese caso, la interacción con el robot es una interacción social, casi humana, en donde comienzan a entrar en juego expectativas, emociones y vinculación afectiva entre humano y robot.

¿Entre humano y robot?

No. Seamos más exactos: del humano con el robot. Los robots, al menos aquellos de los que disponemos hoy en día y de los que cabe prever dispongamos en los próximos años (puede que durante muchos años, puede que siempre) no tienen sentimientos aunque sí tienen capacidad para captarlos y simularlos.

No tienen sentimientos pero son capaces de captarlos y simularlos. Es decir, externamente sí parecen seres, no solo inteligentes, sino también emocionales. Y si a eso le añadimos la tendencia de las personas a antropomorfizar es decir, a atribuir características humanas aquello con lo que se relacionan, en este caso robots; y si a eso le añadimos un poco de fantasía y herencia cultural que tienen a personificar a los robots, tenemos el caldo de cultivo perfecto para plantearnos la posibilidad de una relación no sólo operativa sino también afectiva entre humanos y robots y preguntarnos si es posible, y si es deseable, la amistad e incluso el amor.


Reciprocidad y simetría


Respecto al tema de la amistad, ya vimos hace unas semanas una argumentación filosófica a favor (discurso de John Danaher) y una en contra (discurso de Sven Nyholm) de la posibilidad de esa amistad entre robots y personas. En esa suerte de debate, una de las características que se atribuía a la amistad eran la mutualidad (los amigos tienen valores e intereses compartidos y admiración y buenos deseos recíprocos) y la igualdad (las dos partes son iguales sin relaciones de dominación o superioridad). 

En un apartado de su último libro 'The new breed', la roboticista Kate Darling analiza, aunque no en profundidad, la verdad, el tema de la reciprocidad en las relaciones humano-robot. Conviene saber que el argumento principal de Darling en este libro, es que, de alguna forma, debemos de cambiar nuestra mirada hacia los robots, a los cuales tendemos a igualarlos a humanos y, mejor, pensar en ellos como algo más cercano a animales, ya que su naturaleza y nuestra relación con ellos se parece más a este último caso. Y ya con respecto a la reciprocidad nos dice:


Not every aspect of our human, animal, and other relationships require reciprocity, but it should also be said that not everyone agrees that relationships with robots are one-sided.


Un poco la idea es que, en efecto, las relaciones entre humano-robot no tienen una verdadera reciprocidad, son asimétricas, al menos en lo que a aspectos emocionales se refiere. Es la persona la que tiene los sentimientos, no los robots.

Sin embargo, y aunque sin aportar unas conclusiones claras, lo que parece latir en el pensamiento de Darling es que, reconociendo que no hay reciprocidad y que se trata de relaciones asimétricas, eso no necesariamente impide que puedan ser una relaciones significativas. De hecho, las relaciones de las personas con sus mascotas (perros, gatos, etc) son importantes para sus dueños y, sin embargo, en palabras de Darling:


human-pet relationships are inherently un-equal.


No solo eso, unas líneas más abajo afirma:


Our ability to care for someone or something that doesn't necesasarily depend on their ability to care back. And there also doesn't seem to be anything inherently wrong with one-sided relationships.


Según esto parece entenderse, como decíamos que, reconociendo que las relaciones con robots son y previsiblemente serán asimétricas, eso no impide que puedan ser significativas, significativas para el ser humano que participa en la relación, se entiende.


Reflexiones finales


Quizá podamos enfocar esta capacidad del ser humano de volcar afecto en animales o cosas incapaces de devolverle ese afecto, como un factor de grandeza, como algo de lo que podemos estar orgullosos como humanos.

Sin embargo, creo que también complica desde un punto de vista ético las decisiones sobre el estatus a otorgar a los robots (y no tanto a los actuales como a unos eventuales robots futuros más sofisticados) y también hace más delicado, más sensible, el asunto de la relación robots-personas y parece reclamar, como decía en el artículo anterior, una mayor tacto y prudencia.


viernes, 4 de junio de 2021

Unos humanoides no tan humanos

¿Cuánto debería parecerse un robot, específicamente un robot social a un humano¿ ¿Cómo de humano conviene que sea su aspecto, su lenguaje, sus gestos o incluso su tacto?

Si no lo pensamos mucho, si reaccionáramos 'a bote pronto', podríamos decir que, al menos desde el punto de vista de la efectividad de la relación, del mejor entendimiento mutuo e incluso de la creación de vínculos afectivos más fuertes, mientras más se parezca un robot a un humano, mejor ¿no?

Dejaremos para el final del artículo alguna consideración ética y vamos a razonar fundamentalmente en términos de la eficacia de la relación.


El valle inquietante


Aunque la respuesta simplista es que mientras más se parezca el robot a un humano, mejor debería ser la relación, ya desde hace muchos años es muy conocida la teoría del 'uncanny valley' (el valle inquietante), propuesta por Masahiro Mori en 1970 y que establece que esa intuición no es correcta. Es cierto que cuando tratamos con robots de aspecto muy alejado de un humano, una mejora en esa apariencia, un acercamiento a un aspecto humano parece mejorar la percepción y la relación. Pero esa mejora sólo es hasta cierto punto. Cuando ya se parece 'bastante' al humano, un incremento de parecido opera en su contra, produce prevención, rechazo, en apariencia porque recuerda a una persona, pero una persona extraña, quizá enferma, quizá muerta o 'zombi'. Y eso, de forma natural, nos produce desagrado y rechazo. Si lográramos superar ese estadio y consiguiéramos que el robot se pareciese muchísimo a una persona, hasta casi ser indistinguible, volveríamos a una mejora de la interacción. Esa zona intermedia donde se produce el rechazo es el famoso valle inquietante. 

La teoría de Mori nunca ha sido realmente demostrada y hay autores que la rechazan, pero personalmente diría que, de forma puramente intuitiva, me parece muy creíble.

Pero no es solo el 'valle inquietante' lo que nos hace descartar la necesidad de que un robot social se deba parecer a un humano. 


La antropomorfización y sus consecuencias


La tendencia a antropomorfizar cualquier objeto o animal, hace que no necesitemos realmente que un robot se parezca mucho a un humano para que le atribuyamos sentimientos, intenciones o emociones. Basta con que el robot nos proporcione 'pistas' suficientes sobre su supuesto estado de ánimo o intención, para que nuestro cerebro y sentimientos hagan el resto del trabajo.

Siendo eso así, no parece necesario esforzarse en construir robots sociales 'demasiado humanos'. Basta con las capacidades suficientes de expresión como para generar en nosotros la reacción emocional adecuada.

En esa línea se manifiesta la roboticista de Kate Darling, en su último libro 'The new breed' cuando nos dice:


Even though some roboticists claim that the ideal social robot looks and behaves just like a human, successful social robot design often goes counter this claim. The trick to getting our attention ins't necessarily to look like us - it's simply to mimic cues that we recognize and respond to.


En efecto, algunos de los robots sociales más exitosos son o han sido zoomórficos (por ejemplo, el perro AIBO o la foca PARO), otros de tipo asistente personal, como por ejemplo JIBO, casi parece más una especie de altavoz inteligente un poco evolucionado y otros, en fin, como los popularísimos Pepper o Nao, aunque sin duda humanoides, no intentan, ni de lejos, parecerse realmente a un humano.

Así que parece que no, que no es necesario parecerse a un humano como sí intentan, por ejemplo, Sophia, Geminoid o robots sexuales como los de Real Doll. 

Nuestra tendencia a la antropomorfización y a proyectar arquetipos y emociones humanas hacen el resto.

Así que no, desde un punto de vista de la eficacia de la interacción, no parece estrictamente necesario que los robots sociales sean 'muy humanos'.


La ética


Pero hasta ahora, he estado hablando de la efectividad de la relación, de la capacidad del robot para interactuar socialmente con el humano, para generar vinculación y hacer de esa interacción una interacción fructífera, sean cuales sean los frutos de la interacción que estamos buscando.

¿Y desde un punto de vista ético?

Creo, y lo he manifestado en más de una ocasión, que los robots sociales más inteligentes desafían muchas de nuestras concepciones éticas y filosóficas y las desafían tanto que no me parece que todavía existan criterios éticos claros y consensuados.

Y, precisamente por eso, apostaría por la prudencia.

Está demostrado, por numerosas experiencias, que los robots sociales pueden, gracias a su capacidad para provocar vínculos afectivos y relacionales, generar efectos muy positivos, no solo con personas normales sino, más interesante aún, en ancianos o en personas aquejadas de demencia, soledad o autismo. Pero también somos conscientes de riesgos, de la creación de dependencias excesivas, de la renuncia al trato con humanos, del uso del robot como excusa...

Eso se puede producir en cualquier tipo de interacción con un robot (y, por cierto, también con animales u otro tipo de objetos) pero parece que, especialmente en el caso de personas con alguna carencia emocional o cognitiva, se puede generar un, digamos, engaño, mayor si el robot se parece mucho a un humano en todos los sentidos. A lo mejor el valle inquietante actúa en este caso, paradójicamente, como muro protector, pero preferiría, por si acaso, no apostar por ello.

Y así, y mientras entendemos mejor las implicaciones psicológicas de la interacción de personas con robots, y mientras nos aclaramos nosotros mismos sobre lo que es ético y lo que no, mejor optar por robots que, aunque sociales, tengan un aspecto claramente robótico, claramente artificial sin que sea estrictamente necesario, siquiera, que sean humanoides.


En conclusión


No renunciemos al progreso, ni mucho menos, todo lo contrario, pero seamos prudentes en el camino.

Hablamos de robots, pero también de personas y sentimientos.


miércoles, 2 de junio de 2021

La soledad y los robots

Continuamos en este post comentando alguna derivada adicional del fenómeno de la antropomorfización de objetos, es decir, la atribución a estos objetos, y muy en concreto a los robots, de características humanas como voluntad, intenciones o sentimientos. Un tema al que en los últimos meses hemos aludido con cierta frecuencia en este blog.

Si en el post anterior veíamos alguna implicación negativa en el ámbito legal, ahora nos centramos en un aspecto mucho más personal: el de la soledad.

La tendencia a la antropomorficación es, realmente, absolutamente general. Todas las personas lo hacemos y en relación a todo tipo de objetos y, claro, también animales. Parece una característica común y diría que casi positiva en general e incluso enternecedora en algunos casos (pensemos, por ejemplo, en la relación de cualquier niño o niña con sus peluches).

Sin embargo, también hay consideraciones delicadas al respecto. Según nos cuenta la roboticista Kate Darling, en su último libro, 'The new breed', esta tendencia a la antropomorfización se acentúa en la personas que sufren la soledad. Nos dice así: 


People who are lonely appear to have a much stronger tendency to antropomorphize nonhumans, even bonding with objects to the point of developing deep personal relationships.


Más allá de posibles resultados experimentales, parece algo lógico e intuitivo: si vives en soledad parece normal tener una mayor necesidad de socialización, afecto y compañía y, por tanto, parece normal también el ser más proclive a buscar esa compañía y afecto en fuentes no humanas: objetos y animales.

Diría que eso, y pensando específicamente en el campo que me interesa de los robots sociales y la Human-Robot Interaction, genera una doble perspectiva. 

Por un lado, existe una oportunidad de brindar cierto tipo de apoyo y ayuda a esas personas en soledad mediante medios artificiales, digamos robots sociales. 

Pero también alerta de un riesgo. Nos avisa de que estamos tratando un tema delicado y de que esas personas necesitan realmente calor humano. El apoyo artificial, pues, parece que debería ser de ámbito limitado, siendo más un alivio que una solución, fijando unas expectativas claras en esa 'relación' y sobre todo, no sirviendo de excusa para obviar la necesidad de un verdadero contacto y calor humanos que alivien el profundo problema de la soledad.

Por eso, creo, hay una oportunidad para los robots sociales pero se necesita conocimiento, prudencia y ética.

No parece un reto menor.