lunes, 30 de noviembre de 2020

La definición original de Computación Afectiva

Desde hace un tiempo, me estoy interesando en el campo de la computación afectiva ('affective computing') tanto por sí misma, como por su aplicación en el terreno de la relación entre personas y robots. Tengo muy buenas razones para ello, razones que en algún momento explicaré en este mismo blog, pero, en realidad, siempre me han cautivado las disciplinas eclécticas, los territorios intermedios entre disciplinas científicas o técnicas. Así que no es extraño mi interés en este cruce de caminos entre psicología e inteligencia artificial, principalmente.

Como cada vez que se inicia una disciplina, es bueno proporcionar una definición. Leyendo el libro 'The Oxford Handbook of Affective Computing' me encuentro  una definición propuesta inicialmente por la mismísima Rosalind Pickard, la creadora de esta disciplina de la computación afectiva. Se trata de la primera definición que ella propuso y que reza así:


computing that relates to, arises from, and deliberately influences emotion.


Como cabe esperar, las emociones están en el centro de la computación afectiva pero, eso sí, un estudiadas bajo un prisma que, aun recurriendo a lo psicológico, es esencialmente computacional u orientado hacia lo computacional.

Y, en cierto sentido, y de una forma muy compacta, Pickard esboza los dos aspectos fundamentales que van a dominar la computación afectiva: la detección de emociones ('arises from') y la simulación o generación de emociones con capacidad de influir en las personas ('influences')

Esta detección de emociones y esta simulación de emociones con capacidad de influencia, a su vez, en las emociones de los humanos, está en el núcleo de la muy cercana disciplina de la relación robots-humanos (Human Robot Interaction) y especialmente en el caso de los robots sociales.

Dejaré aquí este breve artículo, pero voy a seguir hablando en el futuro, y mucho y pronto, espero, de computación afectiva y de interacción humano-robot, así que esto no es sólo una definición primigenia, sino casi el inicio de un camino.


miércoles, 25 de noviembre de 2020

Una aplicación muy seria de la inteligencia artificial... aunque pueda parecer lo contrario

La inteligencia artificial parece preparada para alcanzar casi cualquier rincón de nuestra actividad. Con frecuencia sus capacidades nos producen sorpresa, asombro, admiración... pero en esta ocasión tengo que reconocer que no he podido reprimir también una sonrisa.

Y, sin embargo, el tema tiene todo el sentido del mundo y, en el fondo, es serio, muy serio, y un posible gran avance científico y técnico para la salud general.

¿De qué hablo?

Bueno, no sé si en la foto de portada se percibe suficientemente, pero estoy hablando del 'smart toilette' o inodoro inteligente.

¿Un inodoro inteligente?

Pues si, y que cuida de nuestra salud. En el fondo todos sabemos que algunos de los análisis más utilizados por los médicos para conocer nuestro estado de salud en multitud de aspectos son los de heces y orina, unas materias que, por más que por costumbre y aspectos culturales nos muevan al asco o a la risa, lo cierto es que son una riquísima fuente de información médica.

Y, si dejamos aparte de los médicos, qué hay en este mundo que esté mejor capacitado para el análisis de datos y la detección de patrones? Pues el machine learning, claro.

Así que, por sorprendente que pueda parecer, en el fondo la línea argumental es clara: apliquemos la inteligencia artificial para analizar la información de nuestras heces y orina, pero sin turnos ni extracciones sino directamente en origen y de manera continua. 

Precision Healt Smart Toilette
Según he descubierto en  el libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more humanPascal Bornet, Ian Barkin y Jochen Wirtz, ya existe algún modelo, alguno de una institución tan seria como Stanford, que incorpora a un inodoro las cámaras y sensores necesarios para la toma de datos y la algoritmia para su análisis y que denomina Precision Healt Smart Toilette. Nos cuentan que con la información obtenida se pueden detectar de manera proactiva y sin molestias problemas de riñón, infecciones, diabetes y cáncer. Casi nada.

Recuperados de la sorpresa, hay que reconocer que la idea es poderosa, prometedora y que demuestra los beneficios sociales que una inteligencia artificial bien orientada puede traer consigo. 


lunes, 23 de noviembre de 2020

Speech analytics, mucho más que lo que dices

Que nuestros datos están expuestos, lo sabemos. Nos puede preocupar más o menos, pero lo sabemos. Y que nuestra privacidad está amenazada, en el fondo también lo sabemos. Nos puede preocupar más o menos, pero también lo sabemos.

De todas formas, hay veces que esa amenaza se nos muestra de una forma más evidente, o quizá más sorprendente.

Y es que, en el fondo, inocentemente, pensamos que nuestros datos están expuestos de una forma tradicional, Que los datos que, debido a tramitaciones, compras o incluso indiscreciones volcamos en diferentes sistemas, pueden ser indebidamente utilizados o robados. Pero tendemos a pensar en datos que, de alguna forma, proporcionamos más o menos voluntariamente y de manera explícita.

De lo que quizá no somos tan conscientes es de la cantidad de información sobre nosotros mismos de la que dejamos rastro de forma inadvertida, sutil. Porque no son datos explícitos, no es una información que le hayamos proporcionado a una persona de manera clara. 

Son nuestros comportamientos, nuestras expresiones, nuestra forma de hablar, los textos informales que volcamos en redes sociales o en el móvil, nuestro buen o mal humor, nuestro estado de ánimo, nuestro tono de voz... Todo eso contiene información sobre nosotros mismos y, hoy en día, con el grado de avance del machine learning y la inteligencia artificial, es perfectamente viable realizar análisis concluyentes con base en esos datos tan aparentemente deslavazados, tan poco datos si se quiere.  

En su libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more human'  Pascal Bornet, Ian Barkin y Jochen Wirtz, hay un momento en que se detienen a hablar de las plataformas UIM (Unstructured Information Management), es decir, soluciones que se especializan, precisamente en la gestión de información no estructurada, de esos rastros, aparentemente tan poco informativos y que, sin embargo, tanto dicen sobre nosotros. 

Además, los autores hablan de la combinación de estos sistemas con el análisis de sentimiento, una aplicación  ya muy avanzada de la inteligencia artificial y que complementa con una visión sobre actitudes, opiniones y sentimientos la información que aportan los IUM.

Combinando ambas piezas en un Contact Center tendríamos lo que denominan el Speech Analytics en que se puede obtener todo tipo de información a partir de las conversaciones grabadas que se producen con un centro de atención al cliente.

¿Se da cuenta el lector?

Uno llama a un centro de atención, quizá por una duda, probablemente por algún tipo de queja, y la conversación queda grabada y puede ser analizada no sólo desde el punto de vista de la denotación, lo que explícitamente se ha dicho, sino también de las actitudes y sentimientos que se derivan de la forma de expresarse o el tono de voz, por ejemplo.

Definitivamente, nuestros datos  están expuestos. Y no sólo los datos, casi, casi, nuestro estado de ánimo y hasta nuestra personalidad.

No sé si nos importa, pero conviene que lo tengamos en cuenta.

viernes, 20 de noviembre de 2020

Verdades y mitos sobre la Inteligencia Artificial con Richard Benjamins e Idoia Salazar

'El mito del algoritmo' es una obra divulgativa, que no superficial, que busca mostrar lo que hay de cierto y de mito en el mundo de la inteligencia artificial y aportar, además, una propuesta ética a nuestro uso de máquinas y algoritmos, escrita por dos especialistas en ambos aspectos la inteligencia artificial como tecnología y la ética aplicada a datos y algoritmos. 

La obra, además, se salpica con las opiniones de hasta veinticinco reconocidos expertos que aportan unas píldoras de criterio y opinión con respecto a los temas tratados. 

El libro comienza con una pequeña introducción para centrar el objetivo. A continuación, el contenido principlal del análisis se estreuctura en ocho capítulos, cada uno de ellos dedicado a una temática especiífica.
  • '1. Máquinas mentirosas: ' Se ocupa de la toma de decisiones por parte de las máquinas y, al hilo de esta cuestión, aborda el problema de los sesgos en los algoritmos y de la necesidad de la explicabilidad de los mismos, finalizando con un breve repaso de la situación en cuanto a códigos éticos, cuáles existen y en qué punto están. Por el camino explica de forma sencilla algunas ideas subyacentes a los algoritmos cómo los tipos de aprendizaje usados hoy en día en machine learning.

  • '2. Un mundo transparente: ' Se centra en el problema de la privacidad, explicando cómo vamos dejando nuestra huella digital y también malos usos que se pueden hacer de esa huella como el caso famoso de Cambridge Analytica. Se explican algunas protecciones como la aportada por el GDPR. También se trata el filtrado y la selección de noticias e informaciones por parte de las grandes tecnológicas en plataformas sociales y cómo puede afectar a nuestro criterio o percepción de la realidad. Y se cierra con una luz de esperanza hablando de modelos de negocio responsables.

  • '3. Guerra de las máquinas: ' Habla del uso de máquinas y algoritmos con fines de ataque, incluyendo armas letales autónomas, las 'falke news' o el hacking. Se explica cómo las máquinas realmente no tienen bondad o maldad sino que depende del uso que hagamos de ellas y se finaliza con una propuesta de responder al uso malicioso de la tecnología con otra tecnología que pueda contrarrestarla.

  • '4. Robots 1 / Humanidad, 0: ' Un capítulo en que se comparan las capacidades de las máquinas y algoritmos frente a las personas analizando casos en que las primeras son superiores. Así, se repasan algunos hitos relevantes en que las máquinas superaron a los humanos como los famosos casos de Deep Blue, AlplhaZero, AlphaGo, Libratus o IBM debater. Luego, de una forma algo más genérica, se revisan campos donde las máquinas podrían llegar a tener mucho peso como son el diagnóstico médico, abogacía y judicatura, redacción de noticias y textos literarios o incluso el ejercicio como jefes. Se finaliza el capítulo con una apuesta por la simbiosis, por la actuación conjunta de personas y máquinas en campos como educación, comercio, finanzas, periodismo, transporte, salud, etc

  • '5. Datos e IA, ¡al rescate!: ' En este caso se aborda la explotación de los datos como forma de prevenir o paliar todo tipo de desastres naturales. Así, se repasan las posibilidades frente a inundaciones, incendios, cambio climático, terremotos, huracanes, eruciones volcánicas, pobreza o hambrunas. Luego se explica el uso responsable de la Inteligencia Artificial en las cuatro fases de un ciclo que incluye prevención, preparación, respuesta y recuperación. Se dedica un apartado a revisar los aspectos de prvivacidad y confianza implicados en el uso de esos datos y se dedica un amplio espacio al uso de datos e inteligencia artificial en el caso concreto del COVID-19.

  • '6. Despedido por un robot: ' Aborda el impacto en el mundo laboral. Se revisan brevemente algunas tecnologías que pueden eliminar trabajo humano y se revisa el modelo propuesto por Lee y Kai-Fu sobre el riesgo de sustitución de trabajadores por máquinas. Luego se analizan algunos escenarios relacionados con una eventual pérdida de empleo a manos de las máquinas y se finaliza revisando algunas tendencias o ideas emergentes como la renta básica universal o la gig economy.

  • '7. Mi novia/o es un robot: ' Se adentra en el aspecto quizá más humano y que sin embargo tiene su reflejo en las máquinas: las emociones y sentimientos. Se incluye un breve repaso histórico sobre algunos mitos relacionados con animar a máquinas que ya se encuentran en Egipto y Grecia o el mito del gólem. Se revisan conceptos como el test de Turing o el valle inquietante y se entra también en la temática de la creatividad de las máquinas. Se revisa la posibilidad de uso de robots para compabitr la soledad y cómo se pueden simular sentimientos en las máquinas. Incluso se toca al final el tema de la conciencia.

  • '8. El día en que llegó la singularidad tecnológica: ' en que se aborda la posibilidad, no ya de que las máquinas superen a los humanos, sino el hecho mismo de la consecución de un inteligencia artificial general y la eventual toma de control por las máquinas. Se deja claro que en realidad hoy en día no estamos en ese escenario pero sí se aventuran algunas posibilidades de futuro en materia de decisiones autónomas, privacidad o relación máquinas-personas y se bosquejan algunas tecnologías que podrían acelerar el futuro como son la computación cuántica o el uso del ADN para el almacenamiento de información.
Finaliza con un epílogo completamente diferente 'Un cuento sobre inteligencia artificial', una narración de ciencia-ficción con una máquina, Sybil, como protagonista. 

'El mito del algoritmo' es un libro muy interesante, que de una forma sencilla nos va descubriendo todas las implicaciones, positivas y negativas, que trae consigo la inteligencia artificial. Un recorrido que, además, se realiza con un doble empeño. Por un lado, separar el grano de la paja, indicando qué hay de cierto y qué de fantasía en lo que habitualmente se dice y escribe sobre inteligencia artificial. Por otro, aportar una visión ética y responsable sobre el uso de estas tecnologías. 

Un libro, por ese doble empeño, muy valioso y oportuno y un libro que pueden entender y disfrutar todo tipo de públicos, desde los que ya conocen el campo de la inteligencia artificial desde un punto de vista técnico pero quieren entender sus implicaciones éticas y sociales, hasta los que, simplemente, tienen sicnera curiosidad por comprender lo que es y lo que trae consigo la inteligencia artificial. 

Sin duda, muy recomendable. 

Richard Benjamins

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Richard Benjamins
Entre las 100 personas más influyentes en negocios data-driven, según DataIQ 100. Anteriormente Group Chief Data Officer en AXA (seguros). Más de 10 años de experiencia en Telefónica en diferentes cargos de gestión relacionados con Big Data y Analítica. Co-fundador de startups y ONGs. Speaker frecuente en eventos sobre Big Data e Inteligencia Artificial. Miembro del grupo de expertos en compartición de datos de la Comisión Europea. Autor de 'El mito del algoritmo'.

Su pasión es la creación de valor a partir de los datos. Valor comercial pero también valor para la sociedad. Es el fundador del departamento de Telefónica Big Data for Social Good. Actualmente trabaja en cómo hacer los datos y la Inteligencia Artificial más sostenibles desde una perspectiva tanto de negocio como social y ética. Es asesor estratégico de Focus360 y de BigML, una startup que pone el Machine Learning en manos de la gente de negocio.

Antes de unirse a Telefónica, fue director y miembro del consejo en ISOCO, de la cual fue co-fundador en 1999. Con base en su trabajo ISOCO recibió el National Award for Computer Science.

Benjamins ha ocupado puestos en la Universidad Politécnica de Madrid, la Universidad de Amsterdam, la Universidad de Sao Paulo en Brasil, la Universidad de París-Sur en Francia y el Instituto español para la Investigación de la Inteligencia Artificial en Barcelona.

Es co-fundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y uno de los miembros fundadores de la Incubadora Europea para startups da Datos Abiertos (http://opendataincubator.eu/).

Ha publicado más de cien artículos científicos sobre Inteligencia Artificial, Ética e Inteligencia Artificial, sistemas basados en conocimiento, y web semántica. Ha co-presidido numerosos talleres y conferencias internacionales. Es asesor de varias startups y proyectos internacionales de investigación. Fue presidente de la conferencia K-CAP 2013 y co-presidente de la sección industrial en ISWC 2014.

Es miembro del comité editorial de IEEE Intelligent Systems y de la task force de GSMA sobre Big Data para el Bien Social.

El doctor Benjamins recibió en 1993 su doctorado en Ciencias Cognitivas / Inteligencia Artificial por la Universidad de Amsterdam.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vrbenjamins.

Idoia Salazar

(Fuente: Ligera elaboración propia de su ficha en Foro de foros)

Idoia Salazar
Idoia Salazar es presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Co-directora del área de Ética y Responsabilidad de OdiseIA. Doctora en Periodismo. Profesora de la Universidad San Pablo CEU, Madrid.

Especializada en Ética de la Inteligencia Artificial. Investigador Principal del Grupo de Investigación SIMPAIR (Impacto Social de la Inteligencia Artificial y la Robótica). Autora de los libros ‘La revolución de los robots: cómo la inteligencia artificial y la robótica afectan a nuestro futuro’ y ‘Las profundidades de Internet: Accede a la información que los buscadores no encuentran y descubre el futuro inteligente de la Red’ y co-autora de 'El mito del algoritmo'. Es también autora de artículos científicos y divulgativos.

Miembro del comité de expertos del Seminario Permanente de Huella Digital de la Fundación Pablo VI. Tratando de contribuir a un mundo mejor y más justo desde el uso responsable y ético del Big Data y la Inteligencia Artificial.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @idoiasalazar.

Ficha técnica:

lunes, 16 de noviembre de 2020

¿Por qué debería un robot manejar emociones?

En los últimos tiempos he estado investigando sobre robótica social y computación afectiva, un área de estudio y aplicación apasionante tanto desde un punto de vista intelectual (es un área donde se citan la ingeniería, la inteligencia artificial, la psicología y mucho más) como desde el punto de vista de las posibilidades de aplicación que abre y también, hay que reconocerlo, algunos retos éticos que plantea.

Pero a lo mejor, lo primero que habría que hacer es , simplemente, plantearse si tiene sentido, siquiera, el intentar que los robots detecten y expresen emociones.

En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se cita a Rosalind Pickard, la 'madre' de la computación afectiva, y por tanto alguien con autoridad en la materia, y se mencionan cuatro motivos:


  • La presencia de emociones en el robot facilita la comunicación con el usuario (una comunicación, evidentemente emocional).

  • La necesidad de desarrollar aplicaciones que controlan información emocional

  • El interés creciente en el desarrollo de robots que presenten habilidades sociales y emocionales

  • La presencia de emociones hace que la experiencia para el usuario sea más interesante y menos frustrante.

La verdad es que creo que el mero enunciado se me queda un poco corto y creo que precisaría de un poco más de explicación y detalle. Sin embargo, me quedo con dos ideas básicas. 

La primera que la capacidad de gestionar emociones por parte de un robot mejora la relación con los usuarios, con los humanos, y eso, en el fondo, es el objetivo de cualquier interfaz de usuario, desde las más sencillas en un sistema de ventanas o incluso de línea de comandos, hasta las más sofisticadas como pueden ser estas interfaces humano-robot. 

La segunda, con la que ya contaba, es que esa capacidad de gestión emocional abre la puerta a muchísimas aplicaciones de todo tipo: industrial, profesional, en el hogar y en el ámbito social.

Es cierto que con la gestión de las emociones entramos en terreno delicado, un terreno que precisa de una alta dosis de prudencia y de ética. Estoy seguro que de esto último voy a tener oportunidad de hablar largo y tendido próximamente.


viernes, 13 de noviembre de 2020

Estudios sobre robótica social editados por Oliver Korn

'Social robots: technological, societal and ethical aspects of human-robot interaction', aunque presentado en formato libro, es más bien una recopilación de artículos científicos en el campo de los robots sociales y la interacción humano-robot, probablemente un intento de recopilar conocimiento en una disciplina no completamente madura y donde probablemente aún no se puede encontrar un claro y ordenado 'corpus de doctrina'. 

Se nos presentan, en concreto, once estudios que constituye cada uno un capítulo del libro más un par de capítulo iniciales algo más introductorios y teóricos:
  • '1. A Short History of the Perception of Robots and Automation from Antiquity to Modern Times:' Hace un breve recorrido en tres fases (antiguedad, edad media, modernindad) de las diferentes visiones e implmentaciones de robots y autómatas de diversos tipos.

  • '2. Designing Social Robots at Scales Beyond the Humanoid:' Un capítulo de corte más bien teórico dedicado a los robots sociales no humanoides. un término al que se refiere entornos computacionales ubicuos. Se describen sus características funcionales, formales y estéticas y luego se pasa revista a aspectos un tanto particulares como el minimalismo, el uso de alta tecnología, la biomímesis y las visiones posmodernistas y clasicistas en este tipo de entornos robóticos. Finaliza con una breve mirada hacia el futuro de este tipo de entornos.

  • ':3. A Study on Robot-Initiated Interaction; Toward Virtual Social behavior:' Presenta un estudio específico sobre el inicio de la interacción por parte del robot. Tras un repaso de la literatura existente sobre el tema, explica brevemente el sistema utilizado y la idea detrás del experimento. A continuación retorna de nuevo a un trasfondo teórico del campo de la proxémica y cómo medir las reacciones humanas. Y al final, nos presenta ya al robot utilizado, MiRob, y los dos experiementos realizados y sus resultados.

  • ':4. The Role of Gesture in Social Telepresence Robots-A Scenario of Distant Collaborative Problem Solving:' Otro artículo en que ahora se estudian los avatares y la teleoperación de robots y el papel de los gestos en ese tipo de interacción. Primero revisa trabajo relacionado en robots de servicio y robots sociales así como en avatares y robots teleoperados. Luego explica el papel de los gestos en la interacción entre personas y robots. Finalmente, presenta algunos escenarios prácticos con resultados.

  • '5- Unobstrusive Vital Data Recognition by Robots to Enhance Natural Human-Robot Communication:' Otro estudio, en este caso, sobre el muy interesante campo de cómo los robots pueden obtener información sobre las personas con que interactuan y con ello enriquecer la interacción. Sigue el mismo patrón que los artículos anteriores revisando el trabajo previo sobre la materia. Explica a un nivel ligeramente técnico la parte sensora, la manera de obtener información y los algoritmos de detección. Y finalmente, y de forma muy breve, presenta un estudio basado en una cámara portada por un robot.

  • '6. Interacting with Collaborative Robots- A Study on Attitudes and Acceptance in Industrial Contexts:' El estudio que se presenta en este caso se centra en los entornos industriales y en la colaboración entre humanos y robots en esos ambientes. Lo que se analizan son las actitudes de las personas hacia los robots y cómo influye el conocimiento previo que sobre robots tenga la persona. Sigue el esquema habitual, explicndo primero los trabajos previos sobre la materia para luego explicar el estudio realizado, sus métodos y resultados.

  • '7. A Social Robot in a Shopping Mall: Studies on Acceptance and Stakeholder Expectations:' Salimos del entorno industrial y ahora pasamos a un centro comercial hablando del proyecto MuMMER que analiza expectativas y preocupaciones de los responsables de las tiendas y del propio centro a propósito del uso de robots sociales en su entorno. El esquema ya lo conocemos: primero se resumen los estudios previos relacionados y luego se explican varios estudios realizados, un taller con clientes, una encuesta de aceptación también a clientes y un análisis de la perspectiva de los gestores.

  • '8. Multi-party Interaction in Public Spaces: Cross Cultural Variations in Parental and Nonparental Response to Robots: Adaptive Strategies:' Un estudio que analiza la interacción de un robot con dos partes completamente diferenciadas, en este caso padres e hijos, en que pueden tener visiones en conflicto y es precisa una cierta negociación. Se exponen dos estudios, uno realizado en campo en un centro comercial y luego una encuesta online subsecuente para analizar elementos cross-culturales. Como siempre, primero se exponen los resultados de trabajos previos y luego los métodos y resultados de los experimentos realizados.

  • '9. Cross-Collaborative Approach to Socially-Assistive Robotics: A Case Study of Humanoid Robots in a Therapeutic Intervention for Autistic Children:' Este artículo trata de un caso delicado, la acción terapéutica con niños autistas usando robots humanoides, en concreto, usando el robot KASPAR, un robot con aspecto de niño. Como ya nos resulta familiar, primero de revisa la literatura científica previa, luego se presenta al robot KASPAR para luego detallar los experimntos y estudios realizados y sus resultados, uno relacionado con habilidades de comunicación y otro con el foco y la atención.

  • '10. Social Robots and Human Touch in Care: The Perceived Usefulness of Robot Assitance Among Healthcare Professionals:' Analiza un aspecto muy específico: el tacto, es decir, la situaciones en que es necesario que haya contacto físico entre robot y persona y, en concreto, centrado en el caso de asistencia sanitaria. En este caso lo que se presenta es, básicamente, una encuesta a profesionales de enfermería. En la parte de análisis de trabajo y conocimiento previo se hace énfasis sobre todo en la importancia del contacto en el cuidado de personas mayores. En la parte final se explican los resultados obtenidos en la encuesta.

  • '11. Attitudes of Professionals Toward the Need for Assistive and Social Robots in the Healthcare Sector:' Continuamos en el sector sanitario y asistencial y ahora lo que se analiza es la actitud de los profesionales de la salud hacia los robots asistenciales. Se presentan en ese sentido tres estudios basados en encuestas y revisión de literatura. Primero hace una bastante extensa descripción de los robots sociales y luego se centra en los experimentos contando materiales y métodos, diseño de las encuestas y análisis de resultados obtenidos.

  • '12. Evaluating the Sense of Safety and Security in Human-Robot Interaction with Older People:' Analiza los sentimientos de seguridad en el caso de uso de robots en la asistencia a personas mayores hablando de la seguridad desde un punto de vista de daño no intencionado ('safety') o intencionado ('security'). Se revisan primero los concretos relacionados con este sentimiento de seguridad y luego se presentan unos experimentos basados en vídeos usando el robot Pepper en cuatro escenarios diferentes en que se muestran a los participantes los vídeos y luego se les realiza un cuestionario.

  • '13. AMIGO - A Socially Assistive Robot for Coaching Multimodal Training of Persons with Dementia:' y finaliza con un estudio dentro del proyecto europeo AMIGO en que se emplean robots para el entrenamiento de personas con demencia. Sigue el esquema hanbitual, presentano trabajos previos relacionado sobre robots sociales asistenciales y en concreto en el ámbito de la salud y ayuda en la demencia. A continuación se explica el sistema AMIGO desde un punto de vista ligeramente técnico y se finaliza con los primeros resultados obtenidos en campo y en estudios cualitativos.
La temática de este libro , particularmente, me resulta fascinante pero, es cierto que, al tratarse de una colección de artículos científicos, se observa en su redacción y estructuración una cierta rigidez, un cierto encorsetamiento que hace la lectura menos agradable de lo que podría ser ante el atracivo de los temas tratados. Para mi gusto particular, más que los experimentos concretos que se cuentan, en general centrados en temas muy puntuales, me han interesado las introducciones previas, los conocimientos, trabajos y conceptos que justifican los estudios y experimentos porque de ahí sí que se puede extraer información estructural y muy interesante. Me ha gustado tambiñen, ver los robots concretos que se han utilizado en los experimentos, de los cuales en muchos casos se aportan fotografías. 

En conjunto, a pesar de ese cierto encorsetamiento, la lectura de 'Social robots: technological, societal and ethical aspects of human-robot interaction' me ha resultado interesante, útil y muy informativa. 

Oliver Korn

(Fuente: Traducción y ligera elaboración propia de la biografía en su blog)

Oliver Korn
Oliver Korn es profesor de Human Computer Interaction (HCI) y director del Affective & Cognitive Institute en la Universidad de Offenburg en Alemania. También es fundador y director de investigación de la compañía de software KORION GmbH. Korn es director de proyecto certificado (IHK) y miembro senior de la Association for Computing Machinery (ACM).

Obtuvo su doctorado en ciencias de la computación en la SimTech Excellence Cluster en el Institute for Visualization and Interactive Systems (VIS) Institute for Visualization and Interactive Systems (VIS) de la Universidad de Stuttgart.

Sus principales áreas de interés son:
  • Reconocimiento de emociones influencia (affective computing)
  • Juegos y gamificación
  • Tecnologías asistenciales
La visión es enriquecer nuestros entornos mediante interfaces intuitivas y sistemas asistenciales intuitivos así como juegos motivadores que se adaptan a los usuarios y al contexto.

Desde 2001 ha trabajado en proyectos enfocados a interacción hombre máquina, sistemas asistenciales, juegos y simulaciones. Trabajó en el Fraunhofer Institute for Industrial Engineering (IAO), la Stuttgart Media University y estableció el laboratorio “HCI & Interactive Wizards” en la University of Applied Sciences Esslingen. En 2003 co-fundó el spin-off de Fraunhofer Korion GmbH, una compañía de simulación y juegos. Hasta Junio de 2016 fue el CEO y estuvo a cargo de varios proyectos de investigación nacionales. Todavía supervisa y dirige las actividades de investigación de Korion.

Puedes saber más del autor visitando su su blog.

Ficha técnica:

miércoles, 11 de noviembre de 2020

Los robots como espejo y esperanza

A veces, por desgracia, se tiende a dar una visión negativa de la tecnología.

A veces, por desgracia, sólo nos quejamos de los riesgos que lleva aparejada. Y sí, algunos tiene, hay que reconocerlo, pero hay mucho más. A veces, cuando hablamos de ética en relación a la tecnología, y muy particularmente en torno a la inteligencia artificial y los robots, la planteamos desde una perspectiva catastrofista y legalista, orientada a a vigilancia y la limitación, como si el único papel de la ética fuese limitar las posibilidades, erróneamente vistas como fundamentalmente peligrosas, que la tecnología trae consigo.

No comparto esa visión. No la comparto en absoluto.

Es inevitable, de nuevo por desgracia, que la visión ética de la tecnología nos conduzca en ocasiones a establecer algunas limitaciones en su uso, alguna vigilancia de los empleos mal intencionados o potencialmente peligrosos. Pero es un error limitarla a eso. Casi diría que es un error que ese sea, siquiera, su papel fundamental. Un gran error.

Me convence más una ética que, sin renunciar a alguna vigilancia, se centre en el impacto positivo, en lo que la tecnología, la inteligencia artificial y los robots pueden aportar en cuento a progreso económico, en cuanto a bienestar de las personas, en cuanto a impacto social positivo.

Hay muchas buenas razones para ello. Razones, económicas, razones prácticas, razones de expectativa, razones de visión e incluso razones humanitarias.

Pero en este artículo, voy a aportar una razón diferente, casi sorprendente, pero que a lo mejor hace reflexionar a algún pesimista.

En los últimos meses, en que tanto tiempo estoy dedicando a investigar en materia de interacción entre robots y personas, a la robótica social y a la computación afectiva, me he encontrado repetidamente, y así ha aparecido en algunos artículos de este blog, la reconocida tendencia de las personas a antropomorfizar todo aquello con lo que se relacionan, entre lo que se incluye también a los robots. Esa antropomorfización fija en gran medida las expectativas que tenemos sobre los robots y la inteligencia artificial, y condiciona en alguna medida el diseño de los robots sociales.

Pero puede que haya algo más. En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte, me encuentro la siguiente afirmación:


Robots and our technologies, in general, are reflections on what we are, how we understand them and design them reflect our understanding of ourselves.


Es decir, no es solo ya que proyectemos en los robots unas expectativas exageradas que nacen de una poco realista  antropomorfización, es que los robots, según afirma la cita, son reflexiones sobre nosotros mismos y los diseñamos para que reflejen lo que creemos que somos, la imagen que los humanos tenemos de nosotros mismos.

¿Y es a esas creaciones que tanto nos reflejan a las que atribuimos tanta maldad y tantas malas intenciones, a las que creemos que hay que vigilar estrechamente?

Si los robots son, de alguna manera, nuestro espejo, el reflejo de lo que creemos del propio ser humano, tendríamos una buena razón para intentar mejorar nuestra opinión y nuestra postura ética frente a ellos, que sería tanto como mejorarla respecto a nosotros. Quizá, deberíamos ser un poco Pygmaliones, situar las mejores expectativas sobre los robots y la inteligencia artificial, lo que sería casi tanto como mejorar las expectativas sobre nosotros mismos, en la esperanza de que, por mor de ese efecto Pygmalión, las expectativas se cumpliesen y mejorásemos como raza, como sociedad, no solo en lo material, tambiñen en lo ético.

Los mismos autores citados remachan: 


We need artificial agents that highlight what is valuable and enjoyable about being human.


Necesitamos unos agentes artificiales (léase, unos robots) que resalten lo que de valioso y gozoso tiene el ser humano.

Así sea.


lunes, 9 de noviembre de 2020

Factores para la aceptación de los robots en interacción con humanos

Entre los aspectos que se han de tener en cuenta en el diseño y construcción de un robot destinado a la interacción con los humanos, un robot social, no sólo encontramos desafíos mecánicos, sensoriales o algorítmicos, que no son poco reto de por sí, sino que, además, se debe gestionar la aceptabilidad del robot por parte de los humanos, una aceptabilidad que tiene mucho de emocional y que está influenciada por aspectos psicológicos, culturales y personales, 

En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte y dedicado, precisamente, al diseño desde un punto de vista emocional de los robots, nos enumera algunos de los elementos a tener en cuenta, algunos de los factores que influyen en esa aceptación. En concreto, nos hablan de:
 
  • Curva que ilustra el valle inquietante
    El valle inquietante ("uncanny valley"):
    Según la teoría del valle inquietante existen unos niveles de similitud de los robots con humanos que nos provocan rechazo. Si el robot es igual que un humano sano, nos resulta perfectamente aceptable. Y si el robot, por el contrario, es muy diferente a un humano, también resulta perfectamente aceptable. Es más, cuando todavía el robot es muy diferente de la persona, mejora la aceptación del robot a medida que se va humanizando. Pero hay una zona, precisamente el valle inquietante, en que el robot se parece mucho a una persona sana pero sin alcanzar un parecido pleno. Es en esa zona donde el robot nos causa rechazo. La teoría del valle inquietante se trata de una propuesta hecha por Masahiro Mori en 1970, una propuesta bastante aceptada pero que, realmente, no se ha llegado a demostrar. Con base en la idea del valle inquietante, la recomendación de diseño es hacer unos robots moderadamente parecidos a los humanos pero no buscar el parecido extremo.

  • Proxémica: La proxémica hace referencia al espacio de separación que las personas mantenemos en una interacción social, un elemento complejo de gestionar porque está influenciado por la relación existente entre las personas, la situación concreta en que se produce la interacción, la personalidad y las normas y costumbres sociales y culturales. En la obra se mencionan estudios que señalan, por ejemplo, que los niños se alejan más de los robots que los adultos, las mujeres más que los hombres, o que se mantienen distancias mayores con robots dotados de voz que con aquellos mudos. Un robot social debe manejar lo mejor posible las distancias para mejorar la relación con los humanos.

  • Empatía: Hablamos de empatía en el sentido de la capacidad de percibir, entender y experimentar las emociones de otros. Para ser mejor aceptados los robots sociales deben mostrar una emociones ricas que generen empatía en los humanos. Conviene en este punto avisar de que, al decir que los robots muestren emociones, no queremos decir que las sientan realmente, sino que sean capaces de simularlas de manera creíble y consistente. Para ello pueden usar las palabras, el tono de voz, expresiones faciales, postura y gestos.

  • Confianza: Según algunos estudios que mencionan los autores, los humanos no confían de forma inmediata en los robots y sus sugerencias, ya que tienden a verlos como socialmente incompetentes.

  • Compromiso ("engagement"): Nos referimos a compromiso un poco en el sentido de la estrechez y profundidad de la relación que se establece en una interacción dada. Este compromiso parece estar influenciado por factores como el atractivo estético y sensorial, la novedad, la interactividad, etc

La existencia de todos esos factores conduce a realizar lo que denominan un diseño emocional que intente gestionar todos estos elementos mediante un adecuado diseño de apariencia, expresiones faciales, movimiento corporal que refuercen otros elementos como la utilidad y la facilidad de uso.

Sin duda, no son retos pequeños, pero creo que es un campo en que vale la pena avanzar y no dudo de que así, será.

miércoles, 4 de noviembre de 2020

Robótica social: la clave está en la emoción

Cada vez estamos más acostumbrados a interactuar con robots. Bien es cierto que la mayor parte de esos robots son robots software (típicamente chatbots o asistentes virtuales) a veces con una muy ligera y poco humana 'corporeidad', como es el caso de los altavoces inteligentes.

También empiezan a ser comunes algunos robots de servicio ('service robots') como los típicos aspiradores Roomba que todavía presentan mucho más el aspecto habitual de una máquina que de otra cosa.

Pero, aunque en ámbitos todavía reducidos y aún sin excesivo impacto en el mercado, comienzan a proliferar cada vez más robots de aspecto humanoide, robots pensados para interactuar con humanos en entornos no específicamente profesionales. Hablamos de los denominados robots sociales que se pueden utilizar desde situaciones como eventos profesionales o recepciones de hoteles, hasta ámbitos más delicados como la educación o la asistencia a ancianos o personas vulnerables. 

En este tipo de robots el diseño y gestión de la interacción con las personas es fundamental y por eso existe toda una serie multidisciplinar de estudios que caen bajo paraguas de términos como 'Human-Robot Interaction' o 'Affective Computing' que estudian los aspectos no sólo técnicos sino también psicológicos e incluso éticos de esos mecanismos de relación, algo que ya es relevante también en soluciones mucho más implantadas como los mencionados chatbots, voicebots y altavoces inteligentes. Un campo de estudio realmente fascinante en su multidisciplinariedad.

Intentando profundizar en la materia, he terminado la lectura hace unas semanas del libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte, Y en él me encuentro dos afirmaciones interesantes que quisiera compartir. 

Para empezar:


people can more easily relate to a robot when they are able to connect with it on a personal level.


A las personas nos gusta tratar a los robots en un nivel personal. Probablemente esto derive de nuestra tendencia a antropomorfizar nuestro entorno: animales, cosas... y robots. Un fenómeno que ya hemos mencionado repetidamente en este blog. Ese fenómeno se acentúa si a eso añadimos que ciertos tipos de robots presentan aspectos humanoides lo que invita aún más a tratarlos de forma similar a humanos.

Y, dado que en las relaciones humanas las emociones juegan un papel fundamental, no es de extrañar que, en una relación con robots que adoptan tintes antropomórficos, esas emociones jueguen también un papel central.

Tanto es así que en la obra citada nos encontramos con esta segunda afirmación:


The ultimate goal of Social robotics is to communicate and interact with humans on an emotional level.


O sea, no es sólo que en los robots sociales la comunicación emocional sea importante, es que realmente es la clave e incluso su objetivo. 

Quizá, cuando pensemos en entornos menos delicados (como los mencionados eventos profesionales) la emoción, aunque importante, pudiera ser menos relevante. Pero si en lugar de eso pensamos en el uso de robots sociales en educación, en asistencia a colectivos vulnerables o cuidado de personas mayores, entonces la gestión de la emoción se torna un tema capital, clave y tremendamente interesante sin duda desde un punto de vista científico y técnico pero, sobre todo, profundamente delicado desde un punto de vista ético y humano.


lunes, 2 de noviembre de 2020

Aspectos psicológicos de la relación con sistemas de Inteligencia Artificial

Algunas de las problemáticas éticas ligadas al mundo de la Inteligencia Artificial tiene que ver con el uso (o el mal uso) de los datos, con los criterios para la toma de decisiones y la responsabilidad que de ello se deriva (el caso prototípico es el del vehículo autónomo en situaciones de riesgo de accidente), sobre la explicación que los algoritmos pueden dar o no sobre sus decisiones, etc 

Pero hay otros aspectos, quizá menos evidentes, quizá incluso más delicados en algunos casos, que nacen de aspectos psicológicos, de cómo los humanos se relacionan con las máquinas y los riesgos que ello conlleva.

En el libro  'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, dedican un capítulo precisamente a analizar los aspectos psicológicos de nuestra relación con la Inteligencia Artificial y se centran en tres bloques de problemáticas, bastante interrelacionadas:

  • Antropomorfización
  • Inteligencia Artificial persuasiva
  • Vínculos emocionales unidireccionales


Antropomorfización


Ya hemos visto en algún otro artículo en este blog, cómo las personas tendemos a trasladar a máquinas y animales asunciones, conceptos, normas sociales y valores que en realidad son propios de los humanos y que esos animales y mucho menos las máquinas no exhiben. Es a lo que se denomina antropomorfización. Los autores mencionan, en este sentido a Broadbent y dicen:

People treat robots with politeness and apply social norms and values to their interaction partners.

Esto supone una llamada de atención para los diseñadores de robots e interfaces hombre-máquina: incluso si el robot no está pensado para trasladar señales sociales o afectivas a las personas, los humanos probablemente van a interpretar elementos del comportamiento del robot como esas señales sociales o afectivas. Por ello, los diseñadores deben prestar atención a las características físicas y las interacciones de estos robots, especialmente si van a ser usados en interacción con personas vulnerables o con discapacidades físicas o cognitivas.

Un aspecto particularmente interesante pero también delicado es cómo en esa interacción humano-máquina se pueden producir sentimientos y emociones, pero en una relación que es absolutamente unidireccional, donde es el humano el que aporta esos sentimientos y esas emociones y con frecuencia de una manera poco adaptada o inapropiada.

También advierten los autores de una inadecuada confianza en la inteligencia artificial. Una vez que vemos que un robot o un algoritmo parece funcionar, tendemos a poner mucha confianza en él. Sin embargo, no siempre los algoritmos gozan de la certeza que les atribuimos. Los autores sugieren pues que las propias máquinas adviertan de alguna manera acerca de la certeza o no de sus cálculos y decisiones. 


Inteligencia Artificial persuasiva


Se está consiguiendo que diferentes agentes artificiales sean cada vez más persuasivos en sus diálogos y argumentaciones. Además, y dado que cada vez más, nuestros datos están expuestos en, por ejemplo, redes sociales, estos agente inteligentes pueden usar esa información en su labor de persuasión, resultando aún más convincentes.

Esta capacidad de persuasión que estamos consiguiendo en las máquinas son un arma de doble filo, algo que se puede usar tanto para el bien como para el mal. El uso de esa capacidad de persuasión es, pues, algo a monitorizar y vigilar, para que se oriente hacia el bien, especialmente, de nuevo, cuando pensamos en aplicaciones por ejemplo de robots sociales con colectivos vulnerables.


Vínculos emocionales unidireccionales


Ya hemos comentado cómo entre personas y robots se pueden establecer vínculos emocionales, pero unos vínculos emocionales que son siempre unidireccionales, donde es la persona la única que pone el afecto y la emoción ya que los robots no pueden hacerlo, aunque lo simulen.

El establecimiento de vínculos afectivos inadecuados puede conducir a situaciones adversas. Así, por ejemplo, un efecto positivo que podríamos esperar de robots que hacen compañía es el alivio de la soledad. Y, en efecto, puede ser así. Pero también se puede llegar al efecto contrario, a una mayor soledad y aislamiento si la persona, por mor del afecto que vuelca en el robot, un robot que además será amable y complaciente, comienza a preferir la relación con máquinas en lugar de con personas, siempre más conflictivas. Este problema puede ser particularmente agudo en el caso de los robots sexuales.


Conclusión


No debemos menospreciar, todo lo contrario, los efectos psicológicos que se producen en la interacción de las personas con máquinas inteligentes, especialmente con robots sociales. Según esto, el diseño de los robots y su interacción social debe tener en cuenta estos aspectos psicológicos y emplear criterios éticos a la hora de diseñar esa interacción.