lunes, 19 de junio de 2023

Emoción artificial

Un campo apasionante, a la vez que intimidante, en lo relativo a la inteligencia artificial y la robótica cognitiva, es todo lo que tiene que ver con la gestión de las emociones.

La gestión de las emociones por entes artificiales


Me refiero a la detección de emociones en humanos, a la reacción inteligente de un agente artificial inteligente (digamos un algoritmo, un agente conversacional o un robot social) ante esas emociones humanas, y a la simulación de sus propias emociones por parte de ese agente artificial inteligente.

Ya he hablado en este mismo blog sobre el tema y me he referido, por ejemplo, al campo del 'Affective computing' un término, creo, un poco en desuso hoy día, aunque, a despecho de lo que pueda suceder con el término, lo que hay detrás, la disciplina en si, está vivo, muy vivo, y creo que lo estará aún más en el futuro.

Recientemente me estoy tropezando con el término 'Emotion AI', que quiero investigar y que calculo que se refiere poco mas o menos a lo mismo.

Más allá del contenido, que es lo más interesante, en este post voy solamente a especular un poco sobre la propia definición del campo. Y lo hago inspirado por la lectura del libro 'Alone Together: Why We Expect More from Technology and Less from Each Other' de Sherry Turkle, un libro casi clásico entre quienes se interesan por la robótica social, por la relación robots-personas y, en general, por la interacción social de los humanos con la tecnología.

Se trata de un libro no del todo reciente (data de 2017, lo cual en otros campos seria bastante actual, pero en el que nos ocupa, puede notar el paso del tiempo) pero aún relevante.


La definición primigenia de inteligencia artificial


Turkle hace un paralelismo, que, en el fondo, es lo que me ha llamado la atención, con la explicación, no sé si definición, que los asistentes a la famosa conferencia de Darmouth dieron para explicar la recién creada y bautizada disciplina de la inteligencia artificial.

Decían que lo que pretendían era conseguir que las máquinas se comportasen de tal manera que la consideráramos inteligente si un humano se comportase de esa misma manera.

Una visión externa de la inteligencia (artificial), orientada a los resultados y manifestaciones y no tanto a una esencia, probablemente más difícil de definir.

Una orientación que, de alguna manera, enlaza con el famoso test de Turing que también juzga la inteligencia por su manifestación externa en un enfoque que podríamos calificar casi como fenomenológico.


Una definición de emoción artificial


Con esa inspiración Sherry Turkle propone, de una forma que considero ingeniosa, una definición paralela de lo que sería la emoción artificial. Así, nos dice


We are coming to a parallel definition of artificial emotion as the art of "getting machines to express things that would be considered feelings if expressed by people".


En esta especie de definición, nos olvidamos (aunque en el fondo queda implícito) de la detección de las emociones humanas por parte del agente artificial inteligente y nos concentramos más en su expresión de emociones y, como hacían los científicos de Darmouth, consideremos que una máquina es emocional si es capaz de expresar cosas que consideraríamos sentimientos si las expresase un humano.


Alguna implicación filosófica


Es muy importante, de cara a consideraciones éticas e incluso legales, el notar que adoptamos una visión externa. Es decir, no afirmamos que el agente artificial inteligente, 'sienta' realmente nada, que tenga realmente ninguna emoción: sólo que se comporta de una forma que consideraríamos emocional (sentimiento) si un humano hiciese lo  mismo

En una visión filosófica profunda eso nos podría llevar a debates sobre si realmente eso es una emoción o no, o incluso si podemos realmente llegar a saber si realmente ese agente siente algo o no (en el fondo, la misma cuestión aplica a los seres humanos).

Pero más allá de esa quizá irresoluble cuestión, el hecho de que consideremos a un agente como 'sintiente' puede ser suficiente para adjudicarle 'paciencia moral' y por tanto, deducir que puede tener unos derechos.

Por otro lado, desde un punto de vista ético, también nos podemos cuestionar si se produce engaño cuando un agente artificial expresa emociones o si hay riesgos fundamentalmente de tipo afectivo o moral de cara a humanos que interactúen, quizá inadvertidamente, con esos agentes 'emocionales'. 


Conclusión


El campo de la gestión de emociones por parte de agentes artificiales es técnicamente viable, al menos hasta un cierto nivel, y lo que cabe preguntarse ahora es hasta donde lo queremos llevar y qué implicaciones filosóficas, éticas y legales trae consigo.


No hay comentarios:

Publicar un comentario