miércoles, 16 de marzo de 2022

Tres supuestas barreras a una posible amistad robots-personas

Ante el avance en el desarrollo de las capacidades relacionales de los robots, ante los grandes desarrollos en materia de procesamiento de lenguaje natural y reconocimiento de voz, ante los progresos en computación afectiva y la detección de emociones por parte de los robots, ante, en fin, las mayores capacidades cognitivas y sociales de los robots, cada vez surgen más debates y cuestiones sobre hasta dónde pueden, o deben, llegar esas relaciones.

El problema de la amistad robots-personas


Uno de los temas controvertidos, sobre todo desde el punto de vista ético y filosófico es si es posible, o si es conveniente, el establecimiento de una amistad entre robots y personas

No es éste un debate nuevo para este blog. Hace ya casi un año, de hecho, y al hilo de la lectura del libro 'Humans and Robots: Ethics, Agency and Anthropomorfism' de Sven Nyholm, publicaba dos post consecutivos. 

En el primero, 'Un discurso filosófico a favor de la amistad entre robots y personas', aparte de unas consideraciones previas sobre la idea de amistad, revisaba el argumentario de John Danaher en favor de esa posibilidad de una relación amistosa entre robots y personas.

En el segundo, 'y un discurso filosófico cuestionando esa amistad entre robots y personas' se mostraba la posición contraria sostenida por Sven Nyholm.


Las tres barreras de Archer 


Ahora, y leyendo el libro 'Robotics, AI and Humanity', me encuentro con un capítulo firmado por Margaret S. Archer, una socióloga británica, en que se plantea esta misma problemática.

Y la autora detecta tres barreras para el establecimiento de una amistad entre robots y personas, tres barreras que, según Archer, refuerzan la 'robofobia:


  • Normatividad ('normativity')
  • Emotividad ('emotionality')
  • Consciencia ('consciousness')


La idea barrera de la normatividad significa que un ente artificial, digamos un robot, simplemente es incapaz de apreciar la diferencia entre el bien y el mal. La verdad es que la autora, aunque plantea esta anormatividad de los robots como una barrera para la amistad, en lo que sigue de su razonamiento se olvida un poco de la idea de amistad para centrar su análisis en la posibilidad o no de  dotar a los robots de esa cierta moralidad, de esa capacidad de distinguir lo bueno de lo malo.

En cuanto a la emotividad, se repite un poco el esquema: la autora lo plantea como una barrera para la amistad entre robots y personas pero su análisis se dirige casi más a razonar si realmente las emociones son necesarias o no para una relación, y si hay diferencia entre seres naturales y artificiales.

El problema de la consciencia la autora lo dirige mucho hacia el uso del lenguaje y hacia una especie de discurso interior, aunque, de nuevo, no se centra tanto en la relevancia o no para una amistad como en esa objeción es cierto, si de verdad no es posible esas consciencia artificial.

En general Archer plantea estas tres barreras, simplemente, dando por supuesto que suponen argumentos en contra de una eventual amistad entre máquinas y personas, que ésta no se puede producir en ausencia de una normativa moral, emociones o consciencia en el robot, pero no se centra específicamente en el problema de la amistad, en si esas tres características impedirían o no una amistad robot-persona, sino en la realidad o no de las barreras lo cual, eso sí, parece una ligera defensa implícita de que sí sería posible esa amistad.

Quizá por no adentrarse de manera central, o al menos eso me ha parecido a mi, en la viabilidad y, sobre todo, la bondad de una amistas entre robots y personas, su argumentación no me parece realmente muy definitiva, muy convincente en un sentido ni en otro.


A modo de conclusión: ¿Es el de la amistad robots-personas un debate prematuro?


En cualquier caso, podríamos preguntarnos, un poco como planteaba en el artículo 'Ética de los robots: ¿nos estamos ocupando de lo realmente importante?' si realmente estas cuestiones, digamos avanzadas, sobre robots son realistas, si son un debate útil o si nos estamos dejando arrastrar por la fantasía y la pura especulación.

Bueno, no voy a repetir de nuevo la argumentación de ese post, pero sí recordar algo que también he comentado repetidamente en este blog: con independencia de que consideremos o no que la relación que se establece entre una persona y un ser artificial pueda ser calificada de amistad, con independencia de que consideremos que esa eventual amistad es admisible o es una pura aberración, no olvidemos el fenómeno de la antropomorfización, la atribución de características humanas a animales, máquinas o seres inertes, es algo comprobado, es real y muy real y que se refuerza, probablemente, cuando aquello con que nos relacionamos es capaz de hablar y aparentemente entender, cuando es capaz de detectar nuestras emociones y simular que las entiende e incluso que también las posee.

 Y ya estamos en ese punto. No sólo los robots de tipo humanoide, también, por ejemplo, un agente conversacional, un chatbot o un altavoz inteligente, es capaz de disparar esa reacción en un humano. Es capaz de provocar una percepción antropomórfica por parte de la persona y es capaz de generar una cierta reacción emocional y afectiva por parte de esa persona. 

Se tratará, claro, de una transacción afectiva unidirecciónal, únicamente en la dirección de la persona hacia el robot. Y seguramente diremos que eso no es una amistad, que no es una relación similar a la que se establece entre humanos.

Vale. Seguramente tendremos razón en todo eso

Pero la reacción emocional en el humano, no lo olvidemos, se produce. Y, por tanto, vale la pena estar atentos, estudiar el fenómeno y cuidar de que hacemos lo correcto, desde el punto de vista psicológico y ético, con robots o seres artificiales en general.


No hay comentarios:

Publicar un comentario