miércoles, 23 de septiembre de 2020

Cómo un robot puede saber de tus emociones sólo con verte


A estas alturas ya empieza a sorprendernos poco algunos de los logros de la inteligencia Artificial.


Ya sabemos que mediante las técnicas englobadas bajo el paraguas del NLP ('Natural Language Processing') los robots, incluso los robots software como chatbots, son capaces de reconocer elementos importantes de lo que hablamos, incluyendo nuestras intenciones, hasta el punto de permitirles mantener conversaciones coherentes. Ya sabemos que también, analizando las palabras que se utilizan, se puede hacer un análisis de sentimiento, e identificar nuestra actitud hacia un tema concreto. Es un alarde tecnológico, pero ya sabemos de él y ya casi nos hemos acostumbrado a él. Y casi nos parece normal.


Ya sabemos también que el software, y por tanto los robots, son capaces de reconocer a personas ('facial recognition'). Y ya puestos, ya ni nos sorprende que con base a nuestros gestos y expresiones faciales sean capaces de reconocer emociones. Es espectacular, pero ya sabemos que son capaces de hacerlo, y ya casi ni nos sorprende.


Pero debo reconocer que sí me ha sorprendido otra forma en que un robot puede reconocer emociones en las personas, incluso aunque no hablen, incluso aunque consigan no gesticular y mantener una actitud hierática. Se trata de la medida visual de la saturación de oxígeno en sangre.


Me encuentro esta técnica leyendo el libro 'Social robots: Technological, Societal and Ethical Aspectos of Human-Robot Interaction',  editado por Oliver Korn. En el quinto capítulo, recoge un artículo en que se habla precisamente del reconocimiento de datos vitales por parte de los robots usando técnicas no invasivas. Y lo mejor es que, en el fondo, la técnica a que me refiero se trata de una técnica antigua (1937), que en su base es sencilla y se lleva usando desde hace muchos años por ejemplo en teleasistencia pero también, por ejemplo en wearables de fitness. Esto es, en resumen, lo que nos explican: 


Resulta que la saturación de oxígeno en sangre varía con el ritmo cardiaco. Y resulta que ese cambio en la saturación de oxígeno se refleja en la forma deja pasar o reflejar la luz, es decir, es observable con los sensores adecuados desde fuera del cuerpo, de manera no invasiva. Se usa para ello una técnica denominada fotopletismografía. Eso que puede servir para medir simplemente las pulsaciones, tiene su efecto en la identificación de emociones. Con los sensores adecuados enfocados en la cara de una persona los robots pueden detectar sus cambios en ritmo cardíaco y, habida cuenta que éstos correlan con emociones, el robot tiene un medio para, al menos, intuir una emoción.


Y con este tipo de técnicas ¿Cómo vamos a ocultar nuestras emociones a los robots? Podemos, con un cierto esfuerzo de control consciente, usar un lenguaje plano, cortés y tranquilo para que sus capacidades NLP no les permitan deducir nuestros sentimientos a partir de cómo nos expresamos. Eso es casi sencillo. Es bastante más difícil ser capaces de mantener una actitud hierática sin apenas mover un músculo de la cara y no realizar gestos delatores. Me parece muy difícil pero, si nos empeñamos, probablemente seamos capaces de lograrlo. ¡Pero a ver quién es capaz de controlar sus pulsaciones y las propiedades ópticas de su cara!


Con este tipo de sensores no invasivos y un procesamiento sofisticado de los datos obtenidos proporcionado por la Inteligencia Artificial, empieza a resultar casi imposible ocultar nuestras emociones a un robot avanzado.


Habrá que vivir con ello y gestionarlo.


No hay comentarios:

Publicar un comentario