lunes, 23 de noviembre de 2020

Speech analytics, mucho más que lo que dices

Que nuestros datos están expuestos, lo sabemos. Nos puede preocupar más o menos, pero lo sabemos. Y que nuestra privacidad está amenazada, en el fondo también lo sabemos. Nos puede preocupar más o menos, pero también lo sabemos.

De todas formas, hay veces que esa amenaza se nos muestra de una forma más evidente, o quizá más sorprendente.

Y es que, en el fondo, inocentemente, pensamos que nuestros datos están expuestos de una forma tradicional, Que los datos que, debido a tramitaciones, compras o incluso indiscreciones volcamos en diferentes sistemas, pueden ser indebidamente utilizados o robados. Pero tendemos a pensar en datos que, de alguna forma, proporcionamos más o menos voluntariamente y de manera explícita.

De lo que quizá no somos tan conscientes es de la cantidad de información sobre nosotros mismos de la que dejamos rastro de forma inadvertida, sutil. Porque no son datos explícitos, no es una información que le hayamos proporcionado a una persona de manera clara. 

Son nuestros comportamientos, nuestras expresiones, nuestra forma de hablar, los textos informales que volcamos en redes sociales o en el móvil, nuestro buen o mal humor, nuestro estado de ánimo, nuestro tono de voz... Todo eso contiene información sobre nosotros mismos y, hoy en día, con el grado de avance del machine learning y la inteligencia artificial, es perfectamente viable realizar análisis concluyentes con base en esos datos tan aparentemente deslavazados, tan poco datos si se quiere.  

En su libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more human'  Pascal Bornet, Ian Barkin y Jochen Wirtz, hay un momento en que se detienen a hablar de las plataformas UIM (Unstructured Information Management), es decir, soluciones que se especializan, precisamente en la gestión de información no estructurada, de esos rastros, aparentemente tan poco informativos y que, sin embargo, tanto dicen sobre nosotros. 

Además, los autores hablan de la combinación de estos sistemas con el análisis de sentimiento, una aplicación  ya muy avanzada de la inteligencia artificial y que complementa con una visión sobre actitudes, opiniones y sentimientos la información que aportan los IUM.

Combinando ambas piezas en un Contact Center tendríamos lo que denominan el Speech Analytics en que se puede obtener todo tipo de información a partir de las conversaciones grabadas que se producen con un centro de atención al cliente.

¿Se da cuenta el lector?

Uno llama a un centro de atención, quizá por una duda, probablemente por algún tipo de queja, y la conversación queda grabada y puede ser analizada no sólo desde el punto de vista de la denotación, lo que explícitamente se ha dicho, sino también de las actitudes y sentimientos que se derivan de la forma de expresarse o el tono de voz, por ejemplo.

Definitivamente, nuestros datos  están expuestos. Y no sólo los datos, casi, casi, nuestro estado de ánimo y hasta nuestra personalidad.

No sé si nos importa, pero conviene que lo tengamos en cuenta.

viernes, 20 de noviembre de 2020

Verdades y mitos sobre la Inteligencia Artificial con Richard Benjamins e Idoia Salazar

'El mito del algoritmo' es una obra divulgativa, que no superficial, que busca mostrar lo que hay de cierto y de mito en el mundo de la inteligencia artificial y aportar, además, una propuesta ética a nuestro uso de máquinas y algoritmos, escrita por dos especialistas en ambos aspectos la inteligencia artificial como tecnología y la ética aplicada a datos y algoritmos. 

La obra, además, se salpica con las opiniones de hasta veinticinco reconocidos expertos que aportan unas píldoras de criterio y opinión con respecto a los temas tratados. 

El libro comienza con una pequeña introducción para centrar el objetivo. A continuación, el contenido principlal del análisis se estreuctura en ocho capítulos, cada uno de ellos dedicado a una temática especiífica.
  • '1. Máquinas mentirosas: ' Se ocupa de la toma de decisiones por parte de las máquinas y, al hilo de esta cuestión, aborda el problema de los sesgos en los algoritmos y de la necesidad de la explicabilidad de los mismos, finalizando con un breve repaso de la situación en cuanto a códigos éticos, cuáles existen y en qué punto están. Por el camino explica de forma sencilla algunas ideas subyacentes a los algoritmos cómo los tipos de aprendizaje usados hoy en día en machine learning.

  • '2. Un mundo transparente: ' Se centra en el problema de la privacidad, explicando cómo vamos dejando nuestra huella digital y también malos usos que se pueden hacer de esa huella como el caso famoso de Cambridge Analytica. Se explican algunas protecciones como la aportada por el GDPR. También se trata el filtrado y la selección de noticias e informaciones por parte de las grandes tecnológicas en plataformas sociales y cómo puede afectar a nuestro criterio o percepción de la realidad. Y se cierra con una luz de esperanza hablando de modelos de negocio responsables.

  • '3. Guerra de las máquinas: ' Habla del uso de máquinas y algoritmos con fines de ataque, incluyendo armas letales autónomas, las 'falke news' o el hacking. Se explica cómo las máquinas realmente no tienen bondad o maldad sino que depende del uso que hagamos de ellas y se finaliza con una propuesta de responder al uso malicioso de la tecnología con otra tecnología que pueda contrarrestarla.

  • '4. Robots 1 / Humanidad, 0: ' Un capítulo en que se comparan las capacidades de las máquinas y algoritmos frente a las personas analizando casos en que las primeras son superiores. Así, se repasan algunos hitos relevantes en que las máquinas superaron a los humanos como los famosos casos de Deep Blue, AlplhaZero, AlphaGo, Libratus o IBM debater. Luego, de una forma algo más genérica, se revisan campos donde las máquinas podrían llegar a tener mucho peso como son el diagnóstico médico, abogacía y judicatura, redacción de noticias y textos literarios o incluso el ejercicio como jefes. Se finaliza el capítulo con una apuesta por la simbiosis, por la actuación conjunta de personas y máquinas en campos como educación, comercio, finanzas, periodismo, transporte, salud, etc

  • '5. Datos e IA, ¡al rescate!: ' En este caso se aborda la explotación de los datos como forma de prevenir o paliar todo tipo de desastres naturales. Así, se repasan las posibilidades frente a inundaciones, incendios, cambio climático, terremotos, huracanes, eruciones volcánicas, pobreza o hambrunas. Luego se explica el uso responsable de la Inteligencia Artificial en las cuatro fases de un ciclo que incluye prevención, preparación, respuesta y recuperación. Se dedica un apartado a revisar los aspectos de prvivacidad y confianza implicados en el uso de esos datos y se dedica un amplio espacio al uso de datos e inteligencia artificial en el caso concreto del COVID-19.

  • '6. Despedido por un robot: ' Aborda el impacto en el mundo laboral. Se revisan brevemente algunas tecnologías que pueden eliminar trabajo humano y se revisa el modelo propuesto por Lee y Kai-Fu sobre el riesgo de sustitución de trabajadores por máquinas. Luego se analizan algunos escenarios relacionados con una eventual pérdida de empleo a manos de las máquinas y se finaliza revisando algunas tendencias o ideas emergentes como la renta básica universal o la gig economy.

  • '7. Mi novia/o es un robot: ' Se adentra en el aspecto quizá más humano y que sin embargo tiene su reflejo en las máquinas: las emociones y sentimientos. Se incluye un breve repaso histórico sobre algunos mitos relacionados con animar a máquinas que ya se encuentran en Egipto y Grecia o el mito del gólem. Se revisan conceptos como el test de Turing o el valle inquietante y se entra también en la temática de la creatividad de las máquinas. Se revisa la posibilidad de uso de robots para compabitr la soledad y cómo se pueden simular sentimientos en las máquinas. Incluso se toca al final el tema de la conciencia.

  • '8. El día en que llegó la singularidad tecnológica: ' en que se aborda la posibilidad, no ya de que las máquinas superen a los humanos, sino el hecho mismo de la consecución de un inteligencia artificial general y la eventual toma de control por las máquinas. Se deja claro que en realidad hoy en día no estamos en ese escenario pero sí se aventuran algunas posibilidades de futuro en materia de decisiones autónomas, privacidad o relación máquinas-personas y se bosquejan algunas tecnologías que podrían acelerar el futuro como son la computación cuántica o el uso del ADN para el almacenamiento de información.
Finaliza con un epílogo completamente diferente 'Un cuento sobre inteligencia artificial', una narración de ciencia-ficción con una máquina, Sybil, como protagonista. 

'El mito del algoritmo' es un libro muy interesante, que de una forma sencilla nos va descubriendo todas las implicaciones, positivas y negativas, que trae consigo la inteligencia artificial. Un recorrido que, además, se realiza con un doble empeño. Por un lado, separar el grano de la paja, indicando qué hay de cierto y qué de fantasía en lo que habitualmente se dice y escribe sobre inteligencia artificial. Por otro, aportar una visión ética y responsable sobre el uso de estas tecnologías. 

Un libro, por ese doble empeño, muy valioso y oportuno y un libro que pueden entender y disfrutar todo tipo de públicos, desde los que ya conocen el campo de la inteligencia artificial desde un punto de vista técnico pero quieren entender sus implicaciones éticas y sociales, hasta los que, simplemente, tienen sicnera curiosidad por comprender lo que es y lo que trae consigo la inteligencia artificial. 

Sin duda, muy recomendable. 

Richard Benjamins

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Richard Benjamins
Entre las 100 personas más influyentes en negocios data-driven, según DataIQ 100. Anteriormente Group Chief Data Officer en AXA (seguros). Más de 10 años de experiencia en Telefónica en diferentes cargos de gestión relacionados con Big Data y Analítica. Co-fundador de startups y ONGs. Speaker frecuente en eventos sobre Big Data e Inteligencia Artificial. Miembro del grupo de expertos en compartición de datos de la Comisión Europea. Autor de 'El mito del algoritmo'.

Su pasión es la creación de valor a partir de los datos. Valor comercial pero también valor para la sociedad. Es el fundador del departamento de Telefónica Big Data for Social Good. Actualmente trabaja en cómo hacer los datos y la Inteligencia Artificial más sostenibles desde una perspectiva tanto de negocio como social y ética. Es asesor estratégico de Focus360 y de BigML, una startup que pone el Machine Learning en manos de la gente de negocio.

Antes de unirse a Telefónica, fue director y miembro del consejo en ISOCO, de la cual fue co-fundador en 1999. Con base en su trabajo ISOCO recibió el National Award for Computer Science.

Benjamins ha ocupado puestos en la Universidad Politécnica de Madrid, la Universidad de Amsterdam, la Universidad de Sao Paulo en Brasil, la Universidad de París-Sur en Francia y el Instituto español para la Investigación de la Inteligencia Artificial en Barcelona.

Es co-fundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y uno de los miembros fundadores de la Incubadora Europea para startups da Datos Abiertos (http://opendataincubator.eu/).

Ha publicado más de cien artículos científicos sobre Inteligencia Artificial, Ética e Inteligencia Artificial, sistemas basados en conocimiento, y web semántica. Ha co-presidido numerosos talleres y conferencias internacionales. Es asesor de varias startups y proyectos internacionales de investigación. Fue presidente de la conferencia K-CAP 2013 y co-presidente de la sección industrial en ISWC 2014.

Es miembro del comité editorial de IEEE Intelligent Systems y de la task force de GSMA sobre Big Data para el Bien Social.

El doctor Benjamins recibió en 1993 su doctorado en Ciencias Cognitivas / Inteligencia Artificial por la Universidad de Amsterdam.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vrbenjamins.

Idoia Salazar

(Fuente: Ligera elaboración propia de su ficha en Foro de foros)

Idoia Salazar
Idoia Salazar es presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Co-directora del área de Ética y Responsabilidad de OdiseIA. Doctora en Periodismo. Profesora de la Universidad San Pablo CEU, Madrid.

Especializada en Ética de la Inteligencia Artificial. Investigador Principal del Grupo de Investigación SIMPAIR (Impacto Social de la Inteligencia Artificial y la Robótica). Autora de los libros ‘La revolución de los robots: cómo la inteligencia artificial y la robótica afectan a nuestro futuro’ y ‘Las profundidades de Internet: Accede a la información que los buscadores no encuentran y descubre el futuro inteligente de la Red’ y co-autora de 'El mito del algoritmo'. Es también autora de artículos científicos y divulgativos.

Miembro del comité de expertos del Seminario Permanente de Huella Digital de la Fundación Pablo VI. Tratando de contribuir a un mundo mejor y más justo desde el uso responsable y ético del Big Data y la Inteligencia Artificial.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @idoiasalazar.

Ficha técnica:

lunes, 16 de noviembre de 2020

¿Por qué debería un robot manejar emociones?

En los últimos tiempos he estado investigando sobre robótica social y computación afectiva, un área de estudio y aplicación apasionante tanto desde un punto de vista intelectual (es un área donde se citan la ingeniería, la inteligencia artificial, la psicología y mucho más) como desde el punto de vista de las posibilidades de aplicación que abre y también, hay que reconocerlo, algunos retos éticos que plantea.

Pero a lo mejor, lo primero que habría que hacer es , simplemente, plantearse si tiene sentido, siquiera, el intentar que los robots detecten y expresen emociones.

En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se cita a Rosalind Pickard, la 'madre' de la computación afectiva, y por tanto alguien con autoridad en la materia, y se mencionan cuatro motivos:


  • La presencia de emociones en el robot facilita la comunicación con el usuario (una comunicación, evidentemente emocional).

  • La necesidad de desarrollar aplicaciones que controlan información emocional

  • El interés creciente en el desarrollo de robots que presenten habilidades sociales y emocionales

  • La presencia de emociones hace que la experiencia para el usuario sea más interesante y menos frustrante.

La verdad es que creo que el mero enunciado se me queda un poco corto y creo que precisaría de un poco más de explicación y detalle. Sin embargo, me quedo con dos ideas básicas. 

La primera que la capacidad de gestionar emociones por parte de un robot mejora la relación con los usuarios, con los humanos, y eso, en el fondo, es el objetivo de cualquier interfaz de usuario, desde las más sencillas en un sistema de ventanas o incluso de línea de comandos, hasta las más sofisticadas como pueden ser estas interfaces humano-robot. 

La segunda, con la que ya contaba, es que esa capacidad de gestión emocional abre la puerta a muchísimas aplicaciones de todo tipo: industrial, profesional, en el hogar y en el ámbito social.

Es cierto que con la gestión de las emociones entramos en terreno delicado, un terreno que precisa de una alta dosis de prudencia y de ética. Estoy seguro que de esto último voy a tener oportunidad de hablar largo y tendido próximamente.


viernes, 13 de noviembre de 2020

Estudios sobre robótica social editados por Oliver Korn

'Social robots: technological, societal and ethical aspects of human-robot interaction', aunque presentado en formato libro, es más bien una recopilación de artículos científicos en el campo de los robots sociales y la interacción humano-robot, probablemente un intento de recopilar conocimiento en una disciplina no completamente madura y donde probablemente aún no se puede encontrar un claro y ordenado 'corpus de doctrina'. 

Se nos presentan, en concreto, once estudios que constituye cada uno un capítulo del libro más un par de capítulo iniciales algo más introductorios y teóricos:
  • '1. A Short History of the Perception of Robots and Automation from Antiquity to Modern Times:' Hace un breve recorrido en tres fases (antiguedad, edad media, modernindad) de las diferentes visiones e implmentaciones de robots y autómatas de diversos tipos.

  • '2. Designing Social Robots at Scales Beyond the Humanoid:' Un capítulo de corte más bien teórico dedicado a los robots sociales no humanoides. un término al que se refiere entornos computacionales ubicuos. Se describen sus características funcionales, formales y estéticas y luego se pasa revista a aspectos un tanto particulares como el minimalismo, el uso de alta tecnología, la biomímesis y las visiones posmodernistas y clasicistas en este tipo de entornos robóticos. Finaliza con una breve mirada hacia el futuro de este tipo de entornos.

  • ':3. A Study on Robot-Initiated Interaction; Toward Virtual Social behavior:' Presenta un estudio específico sobre el inicio de la interacción por parte del robot. Tras un repaso de la literatura existente sobre el tema, explica brevemente el sistema utilizado y la idea detrás del experimento. A continuación retorna de nuevo a un trasfondo teórico del campo de la proxémica y cómo medir las reacciones humanas. Y al final, nos presenta ya al robot utilizado, MiRob, y los dos experiementos realizados y sus resultados.

  • ':4. The Role of Gesture in Social Telepresence Robots-A Scenario of Distant Collaborative Problem Solving:' Otro artículo en que ahora se estudian los avatares y la teleoperación de robots y el papel de los gestos en ese tipo de interacción. Primero revisa trabajo relacionado en robots de servicio y robots sociales así como en avatares y robots teleoperados. Luego explica el papel de los gestos en la interacción entre personas y robots. Finalmente, presenta algunos escenarios prácticos con resultados.

  • '5- Unobstrusive Vital Data Recognition by Robots to Enhance Natural Human-Robot Communication:' Otro estudio, en este caso, sobre el muy interesante campo de cómo los robots pueden obtener información sobre las personas con que interactuan y con ello enriquecer la interacción. Sigue el mismo patrón que los artículos anteriores revisando el trabajo previo sobre la materia. Explica a un nivel ligeramente técnico la parte sensora, la manera de obtener información y los algoritmos de detección. Y finalmente, y de forma muy breve, presenta un estudio basado en una cámara portada por un robot.

  • '6. Interacting with Collaborative Robots- A Study on Attitudes and Acceptance in Industrial Contexts:' El estudio que se presenta en este caso se centra en los entornos industriales y en la colaboración entre humanos y robots en esos ambientes. Lo que se analizan son las actitudes de las personas hacia los robots y cómo influye el conocimiento previo que sobre robots tenga la persona. Sigue el esquema habitual, explicndo primero los trabajos previos sobre la materia para luego explicar el estudio realizado, sus métodos y resultados.

  • '7. A Social Robot in a Shopping Mall: Studies on Acceptance and Stakeholder Expectations:' Salimos del entorno industrial y ahora pasamos a un centro comercial hablando del proyecto MuMMER que analiza expectativas y preocupaciones de los responsables de las tiendas y del propio centro a propósito del uso de robots sociales en su entorno. El esquema ya lo conocemos: primero se resumen los estudios previos relacionados y luego se explican varios estudios realizados, un taller con clientes, una encuesta de aceptación también a clientes y un análisis de la perspectiva de los gestores.

  • '8. Multi-party Interaction in Public Spaces: Cross Cultural Variations in Parental and Nonparental Response to Robots: Adaptive Strategies:' Un estudio que analiza la interacción de un robot con dos partes completamente diferenciadas, en este caso padres e hijos, en que pueden tener visiones en conflicto y es precisa una cierta negociación. Se exponen dos estudios, uno realizado en campo en un centro comercial y luego una encuesta online subsecuente para analizar elementos cross-culturales. Como siempre, primero se exponen los resultados de trabajos previos y luego los métodos y resultados de los experimentos realizados.

  • '9. Cross-Collaborative Approach to Socially-Assistive Robotics: A Case Study of Humanoid Robots in a Therapeutic Intervention for Autistic Children:' Este artículo trata de un caso delicado, la acción terapéutica con niños autistas usando robots humanoides, en concreto, usando el robot KASPAR, un robot con aspecto de niño. Como ya nos resulta familiar, primero de revisa la literatura científica previa, luego se presenta al robot KASPAR para luego detallar los experimntos y estudios realizados y sus resultados, uno relacionado con habilidades de comunicación y otro con el foco y la atención.

  • '10. Social Robots and Human Touch in Care: The Perceived Usefulness of Robot Assitance Among Healthcare Professionals:' Analiza un aspecto muy específico: el tacto, es decir, la situaciones en que es necesario que haya contacto físico entre robot y persona y, en concreto, centrado en el caso de asistencia sanitaria. En este caso lo que se presenta es, básicamente, una encuesta a profesionales de enfermería. En la parte de análisis de trabajo y conocimiento previo se hace énfasis sobre todo en la importancia del contacto en el cuidado de personas mayores. En la parte final se explican los resultados obtenidos en la encuesta.

  • '11. Attitudes of Professionals Toward the Need for Assistive and Social Robots in the Healthcare Sector:' Continuamos en el sector sanitario y asistencial y ahora lo que se analiza es la actitud de los profesionales de la salud hacia los robots asistenciales. Se presentan en ese sentido tres estudios basados en encuestas y revisión de literatura. Primero hace una bastante extensa descripción de los robots sociales y luego se centra en los experimentos contando materiales y métodos, diseño de las encuestas y análisis de resultados obtenidos.

  • '12. Evaluating the Sense of Safety and Security in Human-Robot Interaction with Older People:' Analiza los sentimientos de seguridad en el caso de uso de robots en la asistencia a personas mayores hablando de la seguridad desde un punto de vista de daño no intencionado ('safety') o intencionado ('security'). Se revisan primero los concretos relacionados con este sentimiento de seguridad y luego se presentan unos experimentos basados en vídeos usando el robot Pepper en cuatro escenarios diferentes en que se muestran a los participantes los vídeos y luego se les realiza un cuestionario.

  • '13. AMIGO - A Socially Assistive Robot for Coaching Multimodal Training of Persons with Dementia:' y finaliza con un estudio dentro del proyecto europeo AMIGO en que se emplean robots para el entrenamiento de personas con demencia. Sigue el esquema hanbitual, presentano trabajos previos relacionado sobre robots sociales asistenciales y en concreto en el ámbito de la salud y ayuda en la demencia. A continuación se explica el sistema AMIGO desde un punto de vista ligeramente técnico y se finaliza con los primeros resultados obtenidos en campo y en estudios cualitativos.
La temática de este libro , particularmente, me resulta fascinante pero, es cierto que, al tratarse de una colección de artículos científicos, se observa en su redacción y estructuración una cierta rigidez, un cierto encorsetamiento que hace la lectura menos agradable de lo que podría ser ante el atracivo de los temas tratados. Para mi gusto particular, más que los experimentos concretos que se cuentan, en general centrados en temas muy puntuales, me han interesado las introducciones previas, los conocimientos, trabajos y conceptos que justifican los estudios y experimentos porque de ahí sí que se puede extraer información estructural y muy interesante. Me ha gustado tambiñen, ver los robots concretos que se han utilizado en los experimentos, de los cuales en muchos casos se aportan fotografías. 

En conjunto, a pesar de ese cierto encorsetamiento, la lectura de 'Social robots: technological, societal and ethical aspects of human-robot interaction' me ha resultado interesante, útil y muy informativa. 

Oliver Korn

(Fuente: Traducción y ligera elaboración propia de la biografía en su blog)

Oliver Korn
Oliver Korn es profesor de Human Computer Interaction (HCI) y director del Affective & Cognitive Institute en la Universidad de Offenburg en Alemania. También es fundador y director de investigación de la compañía de software KORION GmbH. Korn es director de proyecto certificado (IHK) y miembro senior de la Association for Computing Machinery (ACM).

Obtuvo su doctorado en ciencias de la computación en la SimTech Excellence Cluster en el Institute for Visualization and Interactive Systems (VIS) Institute for Visualization and Interactive Systems (VIS) de la Universidad de Stuttgart.

Sus principales áreas de interés son:
  • Reconocimiento de emociones influencia (affective computing)
  • Juegos y gamificación
  • Tecnologías asistenciales
La visión es enriquecer nuestros entornos mediante interfaces intuitivas y sistemas asistenciales intuitivos así como juegos motivadores que se adaptan a los usuarios y al contexto.

Desde 2001 ha trabajado en proyectos enfocados a interacción hombre máquina, sistemas asistenciales, juegos y simulaciones. Trabajó en el Fraunhofer Institute for Industrial Engineering (IAO), la Stuttgart Media University y estableció el laboratorio “HCI & Interactive Wizards” en la University of Applied Sciences Esslingen. En 2003 co-fundó el spin-off de Fraunhofer Korion GmbH, una compañía de simulación y juegos. Hasta Junio de 2016 fue el CEO y estuvo a cargo de varios proyectos de investigación nacionales. Todavía supervisa y dirige las actividades de investigación de Korion.

Puedes saber más del autor visitando su su blog.

Ficha técnica:

miércoles, 11 de noviembre de 2020

Los robots como espejo y esperanza

A veces, por desgracia, se tiende a dar una visión negativa de la tecnología.

A veces, por desgracia, sólo nos quejamos de los riesgos que lleva aparejada. Y sí, algunos tiene, hay que reconocerlo, pero hay mucho más. A veces, cuando hablamos de ética en relación a la tecnología, y muy particularmente en torno a la inteligencia artificial y los robots, la planteamos desde una perspectiva catastrofista y legalista, orientada a a vigilancia y la limitación, como si el único papel de la ética fuese limitar las posibilidades, erróneamente vistas como fundamentalmente peligrosas, que la tecnología trae consigo.

No comparto esa visión. No la comparto en absoluto.

Es inevitable, de nuevo por desgracia, que la visión ética de la tecnología nos conduzca en ocasiones a establecer algunas limitaciones en su uso, alguna vigilancia de los empleos mal intencionados o potencialmente peligrosos. Pero es un error limitarla a eso. Casi diría que es un error que ese sea, siquiera, su papel fundamental. Un gran error.

Me convence más una ética que, sin renunciar a alguna vigilancia, se centre en el impacto positivo, en lo que la tecnología, la inteligencia artificial y los robots pueden aportar en cuento a progreso económico, en cuanto a bienestar de las personas, en cuanto a impacto social positivo.

Hay muchas buenas razones para ello. Razones, económicas, razones prácticas, razones de expectativa, razones de visión e incluso razones humanitarias.

Pero en este artículo, voy a aportar una razón diferente, casi sorprendente, pero que a lo mejor hace reflexionar a algún pesimista.

En los últimos meses, en que tanto tiempo estoy dedicando a investigar en materia de interacción entre robots y personas, a la robótica social y a la computación afectiva, me he encontrado repetidamente, y así ha aparecido en algunos artículos de este blog, la reconocida tendencia de las personas a antropomorfizar todo aquello con lo que se relacionan, entre lo que se incluye también a los robots. Esa antropomorfización fija en gran medida las expectativas que tenemos sobre los robots y la inteligencia artificial, y condiciona en alguna medida el diseño de los robots sociales.

Pero puede que haya algo más. En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte, me encuentro la siguiente afirmación:


Robots and our technologies, in general, are reflections on what we are, how we understand them and design them reflect our understanding of ourselves.


Es decir, no es solo ya que proyectemos en los robots unas expectativas exageradas que nacen de una poco realista  antropomorfización, es que los robots, según afirma la cita, son reflexiones sobre nosotros mismos y los diseñamos para que reflejen lo que creemos que somos, la imagen que los humanos tenemos de nosotros mismos.

¿Y es a esas creaciones que tanto nos reflejan a las que atribuimos tanta maldad y tantas malas intenciones, a las que creemos que hay que vigilar estrechamente?

Si los robots son, de alguna manera, nuestro espejo, el reflejo de lo que creemos del propio ser humano, tendríamos una buena razón para intentar mejorar nuestra opinión y nuestra postura ética frente a ellos, que sería tanto como mejorarla respecto a nosotros. Quizá, deberíamos ser un poco Pygmaliones, situar las mejores expectativas sobre los robots y la inteligencia artificial, lo que sería casi tanto como mejorar las expectativas sobre nosotros mismos, en la esperanza de que, por mor de ese efecto Pygmalión, las expectativas se cumpliesen y mejorásemos como raza, como sociedad, no solo en lo material, tambiñen en lo ético.

Los mismos autores citados remachan: 


We need artificial agents that highlight what is valuable and enjoyable about being human.


Necesitamos unos agentes artificiales (léase, unos robots) que resalten lo que de valioso y gozoso tiene el ser humano.

Así sea.


lunes, 9 de noviembre de 2020

Factores para la aceptación de los robots en interacción con humanos

Entre los aspectos que se han de tener en cuenta en el diseño y construcción de un robot destinado a la interacción con los humanos, un robot social, no sólo encontramos desafíos mecánicos, sensoriales o algorítmicos, que no son poco reto de por sí, sino que, además, se debe gestionar la aceptabilidad del robot por parte de los humanos, una aceptabilidad que tiene mucho de emocional y que está influenciada por aspectos psicológicos, culturales y personales, 

En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte y dedicado, precisamente, al diseño desde un punto de vista emocional de los robots, nos enumera algunos de los elementos a tener en cuenta, algunos de los factores que influyen en esa aceptación. En concreto, nos hablan de:
 
  • Curva que ilustra el valle inquietante
    El valle inquietante ("uncanny valley"):
    Según la teoría del valle inquietante existen unos niveles de similitud de los robots con humanos que nos provocan rechazo. Si el robot es igual que un humano sano, nos resulta perfectamente aceptable. Y si el robot, por el contrario, es muy diferente a un humano, también resulta perfectamente aceptable. Es más, cuando todavía el robot es muy diferente de la persona, mejora la aceptación del robot a medida que se va humanizando. Pero hay una zona, precisamente el valle inquietante, en que el robot se parece mucho a una persona sana pero sin alcanzar un parecido pleno. Es en esa zona donde el robot nos causa rechazo. La teoría del valle inquietante se trata de una propuesta hecha por Masahiro Mori en 1970, una propuesta bastante aceptada pero que, realmente, no se ha llegado a demostrar. Con base en la idea del valle inquietante, la recomendación de diseño es hacer unos robots moderadamente parecidos a los humanos pero no buscar el parecido extremo.

  • Proxémica: La proxémica hace referencia al espacio de separación que las personas mantenemos en una interacción social, un elemento complejo de gestionar porque está influenciado por la relación existente entre las personas, la situación concreta en que se produce la interacción, la personalidad y las normas y costumbres sociales y culturales. En la obra se mencionan estudios que señalan, por ejemplo, que los niños se alejan más de los robots que los adultos, las mujeres más que los hombres, o que se mantienen distancias mayores con robots dotados de voz que con aquellos mudos. Un robot social debe manejar lo mejor posible las distancias para mejorar la relación con los humanos.

  • Empatía: Hablamos de empatía en el sentido de la capacidad de percibir, entender y experimentar las emociones de otros. Para ser mejor aceptados los robots sociales deben mostrar una emociones ricas que generen empatía en los humanos. Conviene en este punto avisar de que, al decir que los robots muestren emociones, no queremos decir que las sientan realmente, sino que sean capaces de simularlas de manera creíble y consistente. Para ello pueden usar las palabras, el tono de voz, expresiones faciales, postura y gestos.

  • Confianza: Según algunos estudios que mencionan los autores, los humanos no confían de forma inmediata en los robots y sus sugerencias, ya que tienden a verlos como socialmente incompetentes.

  • Compromiso ("engagement"): Nos referimos a compromiso un poco en el sentido de la estrechez y profundidad de la relación que se establece en una interacción dada. Este compromiso parece estar influenciado por factores como el atractivo estético y sensorial, la novedad, la interactividad, etc

La existencia de todos esos factores conduce a realizar lo que denominan un diseño emocional que intente gestionar todos estos elementos mediante un adecuado diseño de apariencia, expresiones faciales, movimiento corporal que refuercen otros elementos como la utilidad y la facilidad de uso.

Sin duda, no son retos pequeños, pero creo que es un campo en que vale la pena avanzar y no dudo de que así, será.

miércoles, 4 de noviembre de 2020

Robótica social: la clave está en la emoción

Cada vez estamos más acostumbrados a interactuar con robots. Bien es cierto que la mayor parte de esos robots son robots software (típicamente chatbots o asistentes virtuales) a veces con una muy ligera y poco humana 'corporeidad', como es el caso de los altavoces inteligentes.

También empiezan a ser comunes algunos robots de servicio ('service robots') como los típicos aspiradores Roomba que todavía presentan mucho más el aspecto habitual de una máquina que de otra cosa.

Pero, aunque en ámbitos todavía reducidos y aún sin excesivo impacto en el mercado, comienzan a proliferar cada vez más robots de aspecto humanoide, robots pensados para interactuar con humanos en entornos no específicamente profesionales. Hablamos de los denominados robots sociales que se pueden utilizar desde situaciones como eventos profesionales o recepciones de hoteles, hasta ámbitos más delicados como la educación o la asistencia a ancianos o personas vulnerables. 

En este tipo de robots el diseño y gestión de la interacción con las personas es fundamental y por eso existe toda una serie multidisciplinar de estudios que caen bajo paraguas de términos como 'Human-Robot Interaction' o 'Affective Computing' que estudian los aspectos no sólo técnicos sino también psicológicos e incluso éticos de esos mecanismos de relación, algo que ya es relevante también en soluciones mucho más implantadas como los mencionados chatbots, voicebots y altavoces inteligentes. Un campo de estudio realmente fascinante en su multidisciplinariedad.

Intentando profundizar en la materia, he terminado la lectura hace unas semanas del libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte, Y en él me encuentro dos afirmaciones interesantes que quisiera compartir. 

Para empezar:


people can more easily relate to a robot when they are able to connect with it on a personal level.


A las personas nos gusta tratar a los robots en un nivel personal. Probablemente esto derive de nuestra tendencia a antropomorfizar nuestro entorno: animales, cosas... y robots. Un fenómeno que ya hemos mencionado repetidamente en este blog. Ese fenómeno se acentúa si a eso añadimos que ciertos tipos de robots presentan aspectos humanoides lo que invita aún más a tratarlos de forma similar a humanos.

Y, dado que en las relaciones humanas las emociones juegan un papel fundamental, no es de extrañar que, en una relación con robots que adoptan tintes antropomórficos, esas emociones jueguen también un papel central.

Tanto es así que en la obra citada nos encontramos con esta segunda afirmación:


The ultimate goal of Social robotics is to communicate and interact with humans on an emotional level.


O sea, no es sólo que en los robots sociales la comunicación emocional sea importante, es que realmente es la clave e incluso su objetivo. 

Quizá, cuando pensemos en entornos menos delicados (como los mencionados eventos profesionales) la emoción, aunque importante, pudiera ser menos relevante. Pero si en lugar de eso pensamos en el uso de robots sociales en educación, en asistencia a colectivos vulnerables o cuidado de personas mayores, entonces la gestión de la emoción se torna un tema capital, clave y tremendamente interesante sin duda desde un punto de vista científico y técnico pero, sobre todo, profundamente delicado desde un punto de vista ético y humano.


lunes, 2 de noviembre de 2020

Aspectos psicológicos de la relación con sistemas de Inteligencia Artificial

Algunas de las problemáticas éticas ligadas al mundo de la Inteligencia Artificial tiene que ver con el uso (o el mal uso) de los datos, con los criterios para la toma de decisiones y la responsabilidad que de ello se deriva (el caso prototípico es el del vehículo autónomo en situaciones de riesgo de accidente), sobre la explicación que los algoritmos pueden dar o no sobre sus decisiones, etc 

Pero hay otros aspectos, quizá menos evidentes, quizá incluso más delicados en algunos casos, que nacen de aspectos psicológicos, de cómo los humanos se relacionan con las máquinas y los riesgos que ello conlleva.

En el libro  'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, dedican un capítulo precisamente a analizar los aspectos psicológicos de nuestra relación con la Inteligencia Artificial y se centran en tres bloques de problemáticas, bastante interrelacionadas:

  • Antropomorfización
  • Inteligencia Artificial persuasiva
  • Vínculos emocionales unidireccionales


Antropomorfización


Ya hemos visto en algún otro artículo en este blog, cómo las personas tendemos a trasladar a máquinas y animales asunciones, conceptos, normas sociales y valores que en realidad son propios de los humanos y que esos animales y mucho menos las máquinas no exhiben. Es a lo que se denomina antropomorfización. Los autores mencionan, en este sentido a Broadbent y dicen:

People treat robots with politeness and apply social norms and values to their interaction partners.

Esto supone una llamada de atención para los diseñadores de robots e interfaces hombre-máquina: incluso si el robot no está pensado para trasladar señales sociales o afectivas a las personas, los humanos probablemente van a interpretar elementos del comportamiento del robot como esas señales sociales o afectivas. Por ello, los diseñadores deben prestar atención a las características físicas y las interacciones de estos robots, especialmente si van a ser usados en interacción con personas vulnerables o con discapacidades físicas o cognitivas.

Un aspecto particularmente interesante pero también delicado es cómo en esa interacción humano-máquina se pueden producir sentimientos y emociones, pero en una relación que es absolutamente unidireccional, donde es el humano el que aporta esos sentimientos y esas emociones y con frecuencia de una manera poco adaptada o inapropiada.

También advierten los autores de una inadecuada confianza en la inteligencia artificial. Una vez que vemos que un robot o un algoritmo parece funcionar, tendemos a poner mucha confianza en él. Sin embargo, no siempre los algoritmos gozan de la certeza que les atribuimos. Los autores sugieren pues que las propias máquinas adviertan de alguna manera acerca de la certeza o no de sus cálculos y decisiones. 


Inteligencia Artificial persuasiva


Se está consiguiendo que diferentes agentes artificiales sean cada vez más persuasivos en sus diálogos y argumentaciones. Además, y dado que cada vez más, nuestros datos están expuestos en, por ejemplo, redes sociales, estos agente inteligentes pueden usar esa información en su labor de persuasión, resultando aún más convincentes.

Esta capacidad de persuasión que estamos consiguiendo en las máquinas son un arma de doble filo, algo que se puede usar tanto para el bien como para el mal. El uso de esa capacidad de persuasión es, pues, algo a monitorizar y vigilar, para que se oriente hacia el bien, especialmente, de nuevo, cuando pensamos en aplicaciones por ejemplo de robots sociales con colectivos vulnerables.


Vínculos emocionales unidireccionales


Ya hemos comentado cómo entre personas y robots se pueden establecer vínculos emocionales, pero unos vínculos emocionales que son siempre unidireccionales, donde es la persona la única que pone el afecto y la emoción ya que los robots no pueden hacerlo, aunque lo simulen.

El establecimiento de vínculos afectivos inadecuados puede conducir a situaciones adversas. Así, por ejemplo, un efecto positivo que podríamos esperar de robots que hacen compañía es el alivio de la soledad. Y, en efecto, puede ser así. Pero también se puede llegar al efecto contrario, a una mayor soledad y aislamiento si la persona, por mor del afecto que vuelca en el robot, un robot que además será amable y complaciente, comienza a preferir la relación con máquinas en lugar de con personas, siempre más conflictivas. Este problema puede ser particularmente agudo en el caso de los robots sexuales.


Conclusión


No debemos menospreciar, todo lo contrario, los efectos psicológicos que se producen en la interacción de las personas con máquinas inteligentes, especialmente con robots sociales. Según esto, el diseño de los robots y su interacción social debe tener en cuenta estos aspectos psicológicos y emplear criterios éticos a la hora de diseñar esa interacción.


miércoles, 28 de octubre de 2020

Riesgos en el negocio de la Inteligencia Artificial

Aunque nos interesa mucho la inteligencia artificial como pura tecnología, y aunque nos interesa mucho la inteligencia artificial desde el punto de vista de sus connotaciones éticas e incluso humanísticas, lo cierto es que la inteligencia artificial, por suerte, es también un negocio. Un negocio que, para algunos actores, es el objetivo mismo de su actividad empresarial y para otros, la mayoría, un elemento que les puede aportar eficiencia, calidad, diferenciación, etc

En al artículo anterior, vimos algunos elementos funcionales y éticos necesarios para la confianza en la inteligencia artificial. En este artículo, y siguiendo la misma fuente, a saber, el libro 'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, vamos a adoptar la perspectiva de negocio y revisar riesgos asociados a la inteligencia artificial.

Los autores distinguen dos grandes bloques de riesgos:

  • Riesgos generales
  • Riesgos éticos


Riesgos generales


Hablaríamos en primer lugar del riesgo funcional, es decir, del caso de que la solución inteligente, simplemente, no funcione. No es este un riesgo diferente al de cualquier otro negocio tecnológico, pero es evidente que existe y, quizá, apuntaríamos, dada la naturaleza menos determinista y predecible de los algoritmos de inteligencia artificial frente a otro tipo de soluciones técnicas, el riesgo pudiera ser, quizá, algo mayor en este caso.

El segundo tipo de riesgos de este bloque que identifican los autores son los riesgos sistémicos, es decir, se trata de riesgos que afectan a todo el sistema. Se mencionan, por ejemplo, crisis financieras como las generadas por las 'subprime'. Un negocio de inteligencia artificial se ve afectado como sujeto paciente, como cualquier otro, por este tipo de riesgos sistémicos pero, en el caso concreto del ámbito financiero, y a modo de ejemplo, hay que recordar que muchos de los movimientos en bolsa están gobernados por algoritmos y que ya se han producido 'sustos' generados por avalanchas de órdenes dadas por robots. Es decir, también hay el riesgo de que los negocios de inteligencia artificial no sólo sean pacientes de un riesgo sistémico sino que, por desgracia, pueden ser agentes, es decir, generadores de ese riesgo.

El siguiente tipo de riesgo serían los riesgos de fraude. Los autores apuntan al uso de software para generar fraudes como en el tristemente célebre caso de Volkswagen y sus emisiones contaminantes. No nos parece que tampoco en este caso sea un riesgo específico de la inteligencia artificial, pero como software que es, puede intervenir en algún caso.

Finalmente, se indican los riesgos de seguridad como los que se pueden producir en sofisticadas plantas industriales con un control complejo normalmente con una dosis alta de software, o los bastante manidos y probablemente injustamente magnificados accidentes de vehículos autónomos.


Riesgos éticos


En primer lugar tenemos en este apartado los riesgos reputacionales. Los autores señalan como ejemplo el caso de algoritmos sesgados y los prejuicios que pueden generar. También aportan el ejemplo de mal uso de los datos con el caso Cambridge Analytica aunque yo diría que en este caso, más que un riesgo reputacional es, directamente, un uso fraudulento con su efecto de deterioro, evidentemente, en la imagen de los protagonistas. Y creo que habría que ampliar aún más el alcance de este tipo de riesgos para incluir, por ejemplo, cómo los ya mencionados accidentes de los vehículos autónomos pueden suponer, por efecto propaganda, un riesgo y un freno al desarrollo de estas tecnologías y sobre todo a su adopción.

A continuación se abordan los riesgos legales. En este campo pensaríamos en los efectos legales derivados, por ejemplo, de un accidente o de una violación de la política de uso de datos. Sin embargo, los autores se centran más bien en la posibilidad de caer en prácticas anticompetitivas. Aunque creo que en el ámbito de la inteligencia artificial se puede dar ese caso dado el peso de actores como Google, IBM o Microsoft, lo cierto es que los ejemplos que aportan los autores provienen no del campo de la inteligencia artificial sino del software en general: la multas de la Unión Europea a Microsoft y a Google con su android, por prácticas anticompetitivas.

En tercer lugar, tendríamos los riesgos medioambientales. No parece que la inteligencia artificial sea un área muy específicamente afectada por este tipo de riesgos pero podrían darse en caso de un fallo si, por ejemplo, un sistema inteligente controlase instalaciones industriales que usasen gases o líquidos peligrosos o bien, por ejemplo, instalaciones nucleares. Por vía indirecta, la inteligencia artificial podría, en el fondo como cualquier otro software, contribuir negativamente al medio ambiente por materiales, consumo energético, emisiones etc propias de los centros de proceso de datos donde se ejecutan. No parece, no obstante, que este tipo de riesgos sean especialmente relevantes para el campo de la inteligencia artificial.

Finalmente, se mencionan los riesgos sociales. donde se aportarían ejemplos como el efecto en la motivación y moral de profesionales ante la automatización, un eventual aumento del aislamiento social o problemas derivados de usos considerados como inaceptables de la inteligencia artificial cuando, por ejemplo, se entiende que afectan a la privacidad.  


Gestión de los riesgos


A la hora de gestionar estos riesgos los autores apuntan a tres líneas de actuación. aunque en muchos momentos lo hacen más desde el punto de vista más de la sociedad que de una compañía concreta.

En primer lugar apuntan a cambios regulatorios para incrementar la seguridad. Desde el punto de vista de las compañías lo que se apunta es a la implantación de mejores prácticas como forma de minimizar riesgos.

En segundo lugar apuntan a que no sólo hace falta regulación en las industrias tecnológicas punteras en inteligencia artificial, sino también en sectores más tradicionales. Así, por ejemplo, para el caso del vehículo autónomo pudieran ser necesarias nuevas regulaciones en el sector seguros.

 Finalmente, y ahí si se centran más en las empresas, se apunta a la implantación de normas y procedimientos basados en consideraciones éticas y más allá del mínimo legal.


Conclusión


Aunque los propios autores reconocen que hay más riesgos que no se han tratado (riesgos comerciales, riesgos monetarios, etc), lo anterior es una buena estructuración de riesgos, bien es cierto que no siempre muy específicos de la inteligencia artificial. Y aportar estructura y cercanía a la realidad empresarial siempre es bueno y, más aún, si pretendemos pasar de consideraciones éticas más o menos genéricas o teóricas, a acciones concretas en empresas concretas o sectores concretos.


lunes, 26 de octubre de 2020

Elementos funcionales y éticos para la confianza en la Inteligencia Artificial

Existe un interesante y afortunado interés y debate acerca de la aplicación de principios éticos en torno a la robótica y la inteligencia artificial, un asunto en el que, además, la Unión Europea está adoptando un papel muy activo.

Confianza e imparcialidad

Cuando queremos operativizar esa interés, cuando queremos empezar a pensar en obtener algún tipo de conclusiones o resultados, es necesario empezar a concretar de qué estamos hablando exactamente. A modo de ejemplo y como una primera orientación al respecto me encuentro con la aportación que se realiza en el libro 'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh,

En esta obra se centran mucho en los conceptos de confianza ('trust') e imparcialidad ('fairness'), y muy especialmente en el aspecto de confianza.

Elementos funcionales de la confianza

A la hora de abordar esa confianza, distinguen dos tipos de factores o elementos. Por un lado, los elementos de carácter funcional que son, si se quiere, de naturaleza más técnica u operativa. Así, nos indican que tendremos más confianza ('trust') cuando los sistemas sean más robustos y fiables ('dependability'), con bajo número de falsas alarmas o falsos positivos, que sean claros y trasparentes ('transparency') y, en general que no puedan causar daño.

Elementos éticos de la confianza

Por otro lado, están los elementos de carácter ético. Para este apartado, que es en el que más nos queríamos centrar, proponen cinco principios, basándose en las ideas del grupo AI4People,  Según este modelo, cinco son esos elementos éticos de la confianza:

  • No maleficencia ('Non-maleficence'): Un principio muy sencillo en su expresión que establece qu ela Inteligencia Artificial no debe hacer daño a las personas. Y no se refiere especialmente a daño físico. De hecho, algunos de los aspectos en que se centran los autores es en el 'bullying' en social media o en el discurso del odio.

  • Beneficencia ('Beneficence'): Es la visión positiva y contraria a la anterior. La Inteligencia Artificial debe hacer el bien a las personas. Como ilustraciones de lo que esto puede suponer se propone la reducción de accidentes mediante vehículos autónomos, el uso de robots como soporte y ayuda para una población envejecida, uso de telemedicina en zonas remotas, uso de robots en educación, etc

  • Autonomía ('Autonomy'): La autonomía se refiere a la autonomía de las personas, no de los agentes inteligentes y a lo que refiere es a que las personas deben mantener su capacidad de tomar decisiones.

  • Justicia ('Justice'): Este principio establece que la Inteligencia Artificial debe actuar de una manera recta ('just') y no sesgada ('unbiased').

  • Explicabilidad ('Explicability'): Y este quinto principio se refiere al requisito de que sea posible explicar por qué un sistema de Inteligencia Artificial ha llegado a una cierta conclusión o resultado.

Conclusión

Se trata, como se puede apreciar de principios bastante generales pero que, por lo menos, nos ponen un poco de orden acerca de qué estamos hablando y eso puede ayudar a centrar acciones y objetivos. 

En ese afán de alcanzar una visión ordenada y operable de los principios éticos a tener en cuenta, no descarto ir volcando en este blog otras visiones que me pueda ir encontrando u otras conclusiones que yo mismo pueda ir alcanzando.


viernes, 23 de octubre de 2020

Una introducción a la interacción Humano-Robot (HRI) con Christoph Bartneck y equipo

'Human-Robot Interaction: An introduction' es un tratado amplio pero muy asequible del campo del HRI (Human-Robot Interaction), una materia multidisciplinar y apasionante que combina robótica, inteligencia artificial, psicología, etc, intentando, de una manera al alcance de muchos públicos, explicar los aspectos más relevantes. 

Para ello, el libro se estructura en doce capítulos.


  • '1. Introduction: 'Simplemente, una muy breve introducción al libro y unos también cortos currícula de los autores.

  • '2. What is Human-Robot Interaction: ' Situa el campo del HRI (Human-Robot Interaction), poporcionando una explicación de su alcance, explicando su naturaleza interdisciplinar y mostrando brevemente su evolución histórica.

  • '3. How a Robot Works: ' Explica elementos de la arquitectura física y tecnológica de los robots incluyendo tanto la parte hardware con sensores, actuadores y motores, como el software incluyendo elementos de machine learning y visión artificial.

  • '4. Design: ' Aborda los diferentes aspectos del diseño del robot incluyendo su morfología y algunos patrones y principios de diseño y dedicando un espacio amplio a lo relativo a la visión antropormórfica de los robots. También se explican ideas sobre el proceso de diseño.

  • '5. Spatial Interaction: ' Habla de aspectos relacionados con el espacio como la distancia social adecuada para que los humanos se encuentren cómodos en su interacción con los robots o detalles relevantes sobre el inicio de la interacción.

  • '6. Nonverbal Interaction: ' Comienza analizando los tipos de interacciones no verbales, como la mirada y el movimiento de los ojos, los gestos, la imitación y elmimetismo, el tacto, la postura y movimiento e incluso el ritmo y 'timing' de la interacción. También se explica brevemente a nivel ligeramente técnico cómo se gestionan esos aspectos dentro de los robots.

  • '7. Verbal Interaction: ' Tras abordar en el capítulo anterior el lenguaje no verbal, en éste se vuelca con la comunicación verbal. Se habla de los componentes de la conversación y de las diferencias entre texto escrito y lenguaje hablado. Luego se explican algunos aspectos básicos del reconocimiento y síntesis de voz y cómo se aplica en los robots. Y también se aborda el tema de la gestión de las conversaciones.

  • '8. Emotion: 'Se habla de las emociones proporcionando primero unas ideas básicas sobre las emociones humanas para luego pasar ya a las emociones en los robots, explicando aspectos de cómo se perciben las emociones de los interlocutores, así como modelos y estrategias de gestión de emociones en los robots. Y se finaliza con algunos retos relativos a esta gestión de emociones.

  • '9. Research Methods: ' Un comparativamente largo capítulo para explicar la mecánica de la investigación en HRI incluyendo la definición del alcance (qué pregunta se quiere contestar con la investigación), la elección del método de estudio y el equipo, definición del contexto de la interacción, selección del robot a emplear y las medidas a usar. Se finaliza comentando algunos estándares en investigación HRI.

  • '10. Applications: ' Se proponen ejemplos reales de robots donde la interacción con humanos es importante. Así, por ejemplo, se habla de los robots de servicio en ámbitos como la guía turística o recepción de hoteles, de los robots en educación, robots en entretenimiento tanto en juegos como exhibiciooes y el arte o los robots sexuales. También se aportan ejemplos en asistencia sanitaria y terapia como los robots para ayuda a ancianos o personas con trastornos del espectro autista y la rehabilitación. Y se finaliza con un repaso rápido por los robots como asistentes personales, robots de limpieza y logística, robots colaborativos, vehículos autónomos y robots teleoperados. Se finaliza identificando problemáticas de todo tipo para el uso de robots incluyendo la gestión de expectativas, la adicción, el robo de atención o el abuso de robots.

  • '11. Robots in society: ' Un capítulo muy interesante en que se aborda la visión más social e integrada de los robots hablando primero de la imagen, en general negativa y poco realista, que los medios y la ciencia ficción han creado sobre ellos y tratando también aspectos éticos desde la propia investigación, a la satisfacción de necesidades emocionales y sus implicaciones o el posible impacto en los puestos de trabajo y el empleo.

  • '12. Future: 'Un breve capítulo final en que se mira hacia el futuro bajo diferentes puntos de vista que incluyen la propia naturaleza de la relación humano-robot o la tecnología de HRI.
'Human-Robot Interaction: An introduction' me ha parecido una lectura fascinante, tanto por la materia en sí misma, que me encanta, como porque el tratamiento es muy adecuado, proporcionando información relevante incluida la técnica, pero sin extenderse más de lo necesario ni abrumar con detalles algorítmicos, electrónicos o incluso psicológicos. Un nivel de detalle y explicación, pues, muy adecuado para el objetivo del libro y el que yo tenía al acometer su lectura. A esto se añade el detalle de incluir numerosas fotografías de los robots que se mencionan, lo cual proporciona también una aproximación muy realista y atractiva. 

Lo dicho: fascinante. Me ha gustado mucho. 

Christoph Bartneck

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Christoph Bartneck
Christoph Bartneck es profesor asociado y director de estudios de posgrado en el Human Interface Technology Lab New Zealand (HIT Lab NZ) en la Universidad de Canterbury. Tiene formación en diseño industrial e interacción humano robot. y sus proyectos y estudios han sido publicados en las revistas, periódicos y conferencias mas importantes.

Sus intereses se encuentran en los campos de human-computer interaction, estudios de ciencia y tecnología y diseño visual. Más concretamente, se enfoca al efecto del antropomorfismo en Human Agent Interaction (interacción humano-agente). Como un segundo interés investigador, trabaja en análisis bibliométrico, simulaciones sociales basadas en agentes y la revisión critica de políticas y procesos de investigación. En el campo del diseño, Christoph investiga la historia del diseño de productos, mosaicos y fotografía.

La prensa se hace eco con frecuencia de su trabajo, incluyendo New Scientist, Scientific American, Popular Science Wired, the New York Times, The Times, the British Broadcasting Corporation (BBC), HuffPost, the Washington Post, The Guardian y The Economist.

Puedes saber más del autor visitando su página oficial.

Tony Belpaeme

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Tony Belpaeme
Tony Belpaeme es profesor en la Universidad de Ghent, Bélgica, y profesor de robótica y sistemas cognitivos en la Universidad de Plymouth, Reino Unido. Obtuvo su doctorado en Ciencias de la Computación de la Universidad de Vrije, Bruselas.

Partiendo de la premisa de que la inteligencia reside en la interacción social, Tony y su equipo de investigación intentan llevar más allá la inteligencia artificial de los robots sociales. Este enfoque conduce a una variedad de resultados desde los hallazgos teóricos a las aplicaciones prácticas. Está involucrado en proyectos de gran escala que estudian cómo se pueden usar los robots para ayudar a niños en su formación, cómo las interacciones breves con robots se pueden convertir en interacciones a largo plazo y cómo los robots pueden ser usados en terapia.

Puedes saber más del autor visitando su página oficial o siguiéndole en Twitter donde se identifica como @TonyBelpaeme.

Friederike Eyssel

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Friederike Eyssel
Friederike Eyssel es profesora de psicología social aplicada e investigación de género en el Center of Excellence Cognitive Interaction Technology en Bielefeld University, Alemania. Friederike está interesada en varias materias de investigación que abarca desde la robótica social, agentes sociales, inteligencia ambiental hasta el cambio de actitud, reducción de prejuicios y la objetización sexual de las mujeres.

Cruzando disciplinas, Friederike ha publicado ampliamente en los campos de psicología social, Human Agent Interaction y robótica social y actúa como revisora de más de 20 revistas

Puedes saber más de la autora visitando su página ficha en la Bielefeld University.

Takayuki Kanda

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Takayuki Kanda
Takayuki Kanda es profesor de informática en la Universidad de Kyoto. También es líder visitante del grupo Advanced Telecommunications Research (ATR) Intelligent Robotic and Communication Laboratories en Kyoto, Japón. Recibió su grado, máster y doctorado en Ciencias de la Computación por la Universidad de Kyoto, en 1998, 2000 y 2003 respectivamente.

Es uno de los miembros creadores del proyecto Communication Robots en el Advanced Telecommunicatons Research (ATR) Institute en Kyoto. Ha desarrollado un robot de comunicación, Robovie, y lo ha aplicado a situaciones cotidianas como tutorización en escuela elemental o como guía de un museo. Sus áreas de interés en investigación incluyen Human Agent Interaction, robots humanoides interactivos y pruebas de campo.

Puedes saber más del autor visitando su página en la Universidad de Kyoto.

Merel Keijsers

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Merel Keijsers
Merel Keijsers es estudiante de doctorado en el laboratorio Human Interface Technology en Nueva Zelanda. Tiene un Máster en estadística y psicología social y de salud por la Universidad de Utrecht. En su programa de doctorado estudia qué procesos psicológicos conscientes e inconscientes llevan a acosar y abusar de robots. Con background en psicología social, está especialmente interesada en las similitudes y diferencias en cómo las personas tratan con robots frente a cómo lo hacen con otras personas.

Puedes saber más de la autora visitando su perfil en LinkedIn.

Selma Sabanoviv

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Selma Sabanovic
Selma Sabanovic es profesora asociada de informática y ciencias cognitivas en la Universidad de Indiana, Bloomington, donde fundó y dirige el R-House Human-Robot Interaction Lab. Su investigación combina estudios de diseño, uso, y consecuencias de robots de asistencia e interactivos socialmente, en diferentes contextos sociales y culturales incluyendo instituciones sanitarias, hogares y en varios paises. También se encuentra involucrada en estudios acerca del significado social y efectos potenciales de desarrollar e implantar robots en contextos del día a día.

Obtuvo su doctorado en estudios de ciencia y tecnología del Rensselaer Polytecnic Institute en 2017 con una disertación sobre un estudio multicultural de robótica social en Japón y Estados Unidos. Actualmente sirve como editor jefe en la revista ACM Transactions on Human Robot Interaction.

Puedes saber más de la autora visitando su perfil en la Universidad de Indiana.

Ficha técnica: