lunes, 14 de diciembre de 2020

¿Cómo es posible que los robots detecten las emociones humanas?

Quizá, uno de los aspectos más sorprendentes, más estimulantes y, en cierto sentido, más intimidantes de las robótica e inteligencia artificial actuales, es la creciente capacidad de los robots para captar, analizar y entender de alguna forma las emociones humanas y adaptar su comportamiento a esas emociones.

Parece increíble, pero no lo es. En estos momentos, y aunque todavía con camino para el perfeccionamiento, los robots son capaces de captar, medir y clasificar emociones humanas. 

¿Cómo es eso posible?


Condiciones para la percepción de la emoción


Podemos decir que para que una emoción humana pueda ser captada, medida, analizada y clasificada, es preciso que se den dos condiciones:


  • Manifestación física: es decir, que esas emociones, que tendemos a entender como un fenómeno interno del que sólo nosotros somos conscientes, deje muy por el contrario un rastro externo, una manifestación física perceptible desde el exterior.

  • Consistencia: Que esas manifestaciones físicas perceptibles de la emoción sigan patrones comunes, razonablemente consistentes, de forma que la misma emoción se manifieste de forma parecida y con arreglo a los mismos patrones, cuando se experimenta por la misma persona en diferentes momentos del tiempo, por diferentes personas e, incluso, en diferentes culturas.

Y lo cierto es que esas condiciones se dan en la realidad: las emociones humanas producen una manifestación física externa y esas manifestaciones físicas externas de la emoción se adhieren a patrones más o menos comunes y consistentes hasta el punto de permitir la percepción, medida y una cierta clasificación de esas emociones.

Para ello, los robots se confían a la evolución y avance de dos tipos de tecnologías que se corresponden con las dos condiciones. Por un lado a la "sensórica", la construcción de dispositivos capaces de captar y medir esas manifestaciones externas de la emoción. Y, por otro lado, la inteligencia artificial y el machine learning como mecanismo de reconocimiento y clasificación de patrones.

Pensando sobre todo en lo que tiene que ver con sensores ¿de qué posibilidades tecnológicas disponemos? 

En el  libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se dedica un capítulo al tema de la captación y medida de emociones y se nos propone una división entre medidas subjetivas y medidas objetivas. Las primeras, las subjetivas, en realidad no se ajustan al patrón que hemos descrito puesto que son las personas las que informan en los experimentos de su estado emocional. No obstante, revisamos ambas categorías.


Medidas subjetivas


En estas medidas son los propios individuos los que informan de sus emociones mediante encuestas o informes.

Las 18 emociones de PrEmo


En la obra citada se menciona, por ejemplo, PrEmo, una herramienta creada en 2000 y que consiste en 18 imágenes de tipo comic (ver imagen) que representan emociones: 9 son emociones positivas y 9 negativas.

Otra herramienta que aparece es SAM (Self-Assessment Manikin) creado en 1994  y que evalúa la activación ('arousal') o sea, la intensidad de la emoción, la valencia ('valence'), es decir, si es positiva o negativa,  y el dominio emocional ('emotional dominance'), o lo que es lo mismo, la sensación de control sobre el evento que provoca la emoción.

Y se mencionan otros como PANAS ('Positive and Negative Affect Schedule') o FACS ('Facial Actions Coding Systems'), éste último usado con expresiones faciales y que descompone las expresiones faciales en sus componentes de movimientos musculares.

Aunque estas herramientas se han usado y usan en el campo de la Interacción Personas-Robots (HRI, Human-Robot Interaction) parecen más orientadas, al menos esa es mi conclusión, a obtener datos etiquetados que sirvan posteriormente para el aprendizaje de los algoritmos que realmente van a identificar emociones en personas. 

Es decir, que este tipo de técnicas, aunque puedan tener otros muchos valores desde el punto de vista de la psicología, para el tema que nos ocupa, la detección de emociones por parte de los robots, creo que sirven como una herramienta para potenciar el lado de la inteligencia artificial en su fase de aprendizaje o entrenamiento.

Medidas objetivas


Las medidas anteriores, aparte de su subjetividad intrínseca, están sometidos al riesgo de la racionalización consciente, lo que puede ocultar mecanismos no explicitados. Existen sin embargo otro conjunto de técnicas (y tecnologías) para la medida y que tiene más que ver con el lado de la "sensórica".

Los autores de este capítulo, a saber, Hugo Alexandre Ferreira y Magda Saraiva, nos explican que en la formación de las emociones intervienen muchos elementos del sistema nervioso y así, y de forma simplificada, nos enumeran, dentro del sistema nervioso central, al cerebro, a los órganos de los sentidos y a la médula espinal. Y dentro del sistema nervioso periférico, al sistema somático, al sistema autónomo, al simpático y al parasimpático. En todos ellos las emociones tienen reflejo por lo que, potencialmente, en todos ellos podríamos intentar medir algún reflejo físico de las emociones.

También nos explican que, habitualmente, a la hora de medir emociones se consideran tres dimensiones que ya hemos citado (activación, valencia y dominio):
  • Activación ('arousal'): Indica el grado de alerta o excitación y se relaciona sobre todo con el sistema nervioso autónomo y con el sistema endocrino. Por tanto, se medirá en el propio cuerpo pero, afortunadamente, tiene otro tipo de manifestaciones en gesticulación facial. por ejemplo. Más concretamente, los autores mencionan esta lista de manifestaciones y posibles medidas o mecanismos de evaluación:

    • Diámetro de la pupila Donde la técnica a usar es el seguimiento ocular ('eye tracking')

    • Patrones de movimientos oculares medibles mediante 'eye tracking' y EOG (ElectroOculoGraphy)

    • Gesticulación facial que se procesa mediante reconocimiento facial o EMG (ElectroMioGraphy)

    • Habla mediante análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit, que incluye acelerómetro, giróscopo, magnetómetro y barómetro)

    • Ritmo y variabilidad de las pulsaciones usándose en este caso ECG (ElectroCardioGraphy), PPG (PhotoPletismography) y vídeo.

    • Ritmo y patrones de respiración mediante sensores de presión, EMG (ElectroMioGraphy), PPG (PhotoPletismography) y oximetría.

    • Presion arterial medida por medio de sensores de presión y PPG (PhotoPletismography).

    • Temperatura mediante termómetros, infrarrojos o cámaras térmicas.

    • Sudor usando GSR (Galvanic Skin Response) o EDA (ElectroDermal Activity).

    • Actividad cerebral quizá lo más fascinante y desafiante y a lo que se tiene cierto acceso mediante EEG (ElectroEncefalGraphy).

  • Valencia ('valence'): que indica de alguna manera el sentido de una emoción (si es positiva o negativa), algo que no se puede correlar de forma simple a la activación del sistema nervioso autónomo ya que la reacción puede ser muy parecida independientemente de la valencia. En su lugar, se acude a manifestaciones más externas como la gesticulación facial, movimientos y posturas del cuerpo o los gestos. También se han encontrado trazas de la valencia en elementos de la actividad cerebral. Las técnicas identificadas en este caso (algunas coincidentes con las vistas antes) son:

    • Gesticulación facial reconocimiento facial o EMG (ElectroMioGraphy).

    • Habla análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit).

    • Movimientos corporales captados mediante VIS/IR (VISible InfraRed) y cámaras de profundidad 3D.

    • Actividad cerebral mediante (EEG ElectroEncefalGraphy) y otras técnicas que se mencionan más abajo el apartado 'global')

  • Dominio ('dominance'): que se percibe con base en la actividad cerebral.

  • Global ('overall'): se usan técnicas basadas en neurofisiología y neuroimagen como fMRI (functional Magnetic Resonance Imaging), fNIRS (functional Near Infra-Red Spectroscopy), MEG (MagnetoEnceloGraphy), PET (Positron Emission Tomography), BCI (Brain-Computer Interface), TCS (Transcranial Current Stimulation) o TMS (Transcranial Magnetic Stimulation)

En conclusión


Se trata, como se puede observar, de una lista larga de técnicas / tecnologías, cada una con sus fundamentos físicos que habilitan la existencia de sensores y con su correlación con las emociones que es lo que, en el fondo, deseamos conocer. 

Probablemente valga la pena detenerse a conocer cada una de esas técnicas, y quizá en algún momento dedique espacio en este blog a comentar alguna de ellas, pero de momento el mensaje relevante es que si, nuestras emociones dejan trazas externas observables y medibles, que sí, esas manifestaciones físicas observables presentan patrones comunes y, por tanto, sí, los robots pueden detectar y de alguna forma medir y gestionar las emociones humanas.

No hay comentarios:

Publicar un comentario