lunes, 2 de noviembre de 2020

Aspectos psicológicos de la relación con sistemas de Inteligencia Artificial

Algunas de las problemáticas éticas ligadas al mundo de la Inteligencia Artificial tiene que ver con el uso (o el mal uso) de los datos, con los criterios para la toma de decisiones y la responsabilidad que de ello se deriva (el caso prototípico es el del vehículo autónomo en situaciones de riesgo de accidente), sobre la explicación que los algoritmos pueden dar o no sobre sus decisiones, etc 

Pero hay otros aspectos, quizá menos evidentes, quizá incluso más delicados en algunos casos, que nacen de aspectos psicológicos, de cómo los humanos se relacionan con las máquinas y los riesgos que ello conlleva.

En el libro  'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, dedican un capítulo precisamente a analizar los aspectos psicológicos de nuestra relación con la Inteligencia Artificial y se centran en tres bloques de problemáticas, bastante interrelacionadas:

  • Antropomorfización
  • Inteligencia Artificial persuasiva
  • Vínculos emocionales unidireccionales


Antropomorfización


Ya hemos visto en algún otro artículo en este blog, cómo las personas tendemos a trasladar a máquinas y animales asunciones, conceptos, normas sociales y valores que en realidad son propios de los humanos y que esos animales y mucho menos las máquinas no exhiben. Es a lo que se denomina antropomorfización. Los autores mencionan, en este sentido a Broadbent y dicen:

People treat robots with politeness and apply social norms and values to their interaction partners.

Esto supone una llamada de atención para los diseñadores de robots e interfaces hombre-máquina: incluso si el robot no está pensado para trasladar señales sociales o afectivas a las personas, los humanos probablemente van a interpretar elementos del comportamiento del robot como esas señales sociales o afectivas. Por ello, los diseñadores deben prestar atención a las características físicas y las interacciones de estos robots, especialmente si van a ser usados en interacción con personas vulnerables o con discapacidades físicas o cognitivas.

Un aspecto particularmente interesante pero también delicado es cómo en esa interacción humano-máquina se pueden producir sentimientos y emociones, pero en una relación que es absolutamente unidireccional, donde es el humano el que aporta esos sentimientos y esas emociones y con frecuencia de una manera poco adaptada o inapropiada.

También advierten los autores de una inadecuada confianza en la inteligencia artificial. Una vez que vemos que un robot o un algoritmo parece funcionar, tendemos a poner mucha confianza en él. Sin embargo, no siempre los algoritmos gozan de la certeza que les atribuimos. Los autores sugieren pues que las propias máquinas adviertan de alguna manera acerca de la certeza o no de sus cálculos y decisiones. 


Inteligencia Artificial persuasiva


Se está consiguiendo que diferentes agentes artificiales sean cada vez más persuasivos en sus diálogos y argumentaciones. Además, y dado que cada vez más, nuestros datos están expuestos en, por ejemplo, redes sociales, estos agente inteligentes pueden usar esa información en su labor de persuasión, resultando aún más convincentes.

Esta capacidad de persuasión que estamos consiguiendo en las máquinas son un arma de doble filo, algo que se puede usar tanto para el bien como para el mal. El uso de esa capacidad de persuasión es, pues, algo a monitorizar y vigilar, para que se oriente hacia el bien, especialmente, de nuevo, cuando pensamos en aplicaciones por ejemplo de robots sociales con colectivos vulnerables.


Vínculos emocionales unidireccionales


Ya hemos comentado cómo entre personas y robots se pueden establecer vínculos emocionales, pero unos vínculos emocionales que son siempre unidireccionales, donde es la persona la única que pone el afecto y la emoción ya que los robots no pueden hacerlo, aunque lo simulen.

El establecimiento de vínculos afectivos inadecuados puede conducir a situaciones adversas. Así, por ejemplo, un efecto positivo que podríamos esperar de robots que hacen compañía es el alivio de la soledad. Y, en efecto, puede ser así. Pero también se puede llegar al efecto contrario, a una mayor soledad y aislamiento si la persona, por mor del afecto que vuelca en el robot, un robot que además será amable y complaciente, comienza a preferir la relación con máquinas en lugar de con personas, siempre más conflictivas. Este problema puede ser particularmente agudo en el caso de los robots sexuales.


Conclusión


No debemos menospreciar, todo lo contrario, los efectos psicológicos que se producen en la interacción de las personas con máquinas inteligentes, especialmente con robots sociales. Según esto, el diseño de los robots y su interacción social debe tener en cuenta estos aspectos psicológicos y emplear criterios éticos a la hora de diseñar esa interacción.


No hay comentarios:

Publicar un comentario