lunes, 11 de octubre de 2021

Una curiosa confianza con las máquinas

Nuestra relación con las máquinas es a veces curiosa, casi paradójica.

Con algunas máquinas, quizá aquellas más impersonales y sencillas, más máquinas si se quiere, tenemos una relación natural, de puro uso. Usamos el coche, usamos el teléfono fijo, usamos el ascensor, sin que eso nos suponga ningún tipo de problema, ningún tipo implicación emocional (bueno, con el coche a veces si), ni ningún dilema ético.

Otras máquinas, como puede ser nuestro smartphone, se convierten a veces en algo casi personal, una especie de extensión de nosotros mismos y les tenemos, no sé si cariño, pero sí una cierta dependencia.

Y hay otras, como robots o agentes conversacionales avanzados que a un tiempo parecen atraernos y asustarnos, que según el caso (según tanto el robot, como la persona como el escenario de interacción) se convierte en una relación lúdica, interesante o intimidatoria.

Pero de lo que quería hablar en este post en concreto es de las relaciones de confianza que en ocasiones se producen con las máquinas, una confianza que, paradójicamente, no tenemos con los propios humanos, unas relaciones que me encuentro leyendo el libro 'The robot will see you now' editado por John Wyatt y Stephen N. Williams

Se refiere a relaciones en que el humano 'habla' con la máquina de sus sentimientos o de sus problemas psicológicos. Así, por ejemplo, los autores nos mencionan el caso de Woebot, una App para smartphone que consiste en un agente conversacional inteligente  que proporciona terapia cognitiva y de comportamiento a personas que sufren depresión o ansiedad.

Y lo curioso, es que parece demostrarse que, en ciertas circunstancias, las personas se encuentran mejor dispuestas a proporcionar cierto tipo de informaciones personales o íntimas a una máquina que a otra persona. Curiosamente, en estos casos, el hecho de que sepamos que aquello con que conversamos es una máquina, es un factor a favor en lugar de ser en contra. Quizá sintamos menos vergüenza, quizá sintamos que nos comprometemos menos, o quizá nos resulten más fiables dada su neutralidad.

Está descrito, por ejemplo, cuando hablamos del uso de robots sociales para la educación de niños con problemas en el espectro autista, cómo estos niños parecen sentirse más cómodos con un robot que con una persona, probablemente porque los niños autistas se sienten incómodos ante la improvisación y la espontaneidad y prefieren el trato con un robot que es mucho más predecible.

Y esta confianza con las máquinas no parece tratarse de un fenómeno nuevo, debido quizá a los avances en procesamiento de lenguaje natural, el tratamiento de la voz o la computación afectiva que permita la construcción de agentes inteligentes mucho más naturales y emocionales. No. Parece tratarse de algo más básico, algo que ya se ha producido con máquinas muy sencillas.


El sistema ELIZA

Así, en la misma fuente, se trae a colación una observación de Joseph Weizenbaum, el creador de ELIZA, lo que podría considerarse como el primer chatbot de la historia creado en los años sesenta. ELIZA simulaba, de una manera muy básica, el comportamiento de un psicólogo en una relación con el usuario mediante mensajes de texto.

A pesar de lo básico del programa y la interfaz, lo cierto es que las personas que interactuaban con él, con frecuencia creaban vínculos emocionales y de confianza y revelaban informaciones importantes que probablemente no hubieran proporcionado a un interlocutor humano. Y cuando les fue retirado lo echaban de menos.

En esta línea, en el libro se nos dice:


Ever since Joseph Weizenbaum's experience with the text-based program ELIZA in 1965, investigators have found that people are frequently prepared to disclose more intimate and personal information to a computer-controlled simulation than to a real human being.


Las personas, como se puede leer, estaban más dispuestas a 'confesar' a ELIZA sus pensamientos más íntimos antes que hacerlo con un humano.

Como decía al principio, son curiosas, son paradójicas las relaciones que mantenemos con las máquinas. En las áreas de agentes conversacionales o de Human-Robot Interaction se trabaja para que esas relaciones entre máquinas y personas sean lo más naturales posible. Esto tiene muchos factores positivos: posibilitan relaciones más sencillas, más eficaces y más agradables. Pueden posibilitar la interacción con máquinas a personas con menor preparación informática o digital y pueden ayudar a usar máquinas en entornos más delicados desde un punto de vista psicológico .

Sin embargo, esa capacidad de la máquina para generar vínculos afectivos y de confianza con el humano (una capacidad que, en el fondo, no es una capacidad de la máquina sino del propio humano en su relación con la máquina), nos pone sobre aviso de que pisamos terreno pantanoso. Nos avisa de que, sin renunciar a todo lo positivo que nos traen esas interacciones naturales, debemos estar atentos y vigilantes para que sus efectos psicológicos y emocionales sean siempre positivos y de acuerdo con profundos criterios éticos.

 

No hay comentarios:

Publicar un comentario