Si no lo pensamos mucho, si reaccionáramos 'a bote pronto', podríamos decir que, al menos desde el punto de vista de la efectividad de la relación, del mejor entendimiento mutuo e incluso de la creación de vínculos afectivos más fuertes, mientras más se parezca un robot a un humano, mejor ¿no?
Dejaremos para el final del artículo alguna consideración ética y vamos a razonar fundamentalmente en términos de la eficacia de la relación.
El valle inquietante
Aunque la respuesta simplista es que mientras más se parezca el robot a un humano, mejor debería ser la relación, ya desde hace muchos años es muy conocida la teoría del 'uncanny valley' (el valle inquietante), propuesta por Masahiro Mori en 1970 y que establece que esa intuición no es correcta. Es cierto que cuando tratamos con robots de aspecto muy alejado de un humano, una mejora en esa apariencia, un acercamiento a un aspecto humano parece mejorar la percepción y la relación. Pero esa mejora sólo es hasta cierto punto. Cuando ya se parece 'bastante' al humano, un incremento de parecido opera en su contra, produce prevención, rechazo, en apariencia porque recuerda a una persona, pero una persona extraña, quizá enferma, quizá muerta o 'zombi'. Y eso, de forma natural, nos produce desagrado y rechazo. Si lográramos superar ese estadio y consiguiéramos que el robot se pareciese muchísimo a una persona, hasta casi ser indistinguible, volveríamos a una mejora de la interacción. Esa zona intermedia donde se produce el rechazo es el famoso valle inquietante.
La teoría de Mori nunca ha sido realmente demostrada y hay autores que la rechazan, pero personalmente diría que, de forma puramente intuitiva, me parece muy creíble.
Pero no es solo el 'valle inquietante' lo que nos hace descartar la necesidad de que un robot social se deba parecer a un humano.
La antropomorfización y sus consecuencias
La tendencia a antropomorfizar cualquier objeto o animal, hace que no necesitemos realmente que un robot se parezca mucho a un humano para que le atribuyamos sentimientos, intenciones o emociones. Basta con que el robot nos proporcione 'pistas' suficientes sobre su supuesto estado de ánimo o intención, para que nuestro cerebro y sentimientos hagan el resto del trabajo.
Siendo eso así, no parece necesario esforzarse en construir robots sociales 'demasiado humanos'. Basta con las capacidades suficientes de expresión como para generar en nosotros la reacción emocional adecuada.
En esa línea se manifiesta la roboticista de Kate Darling, en su último libro 'The new breed' cuando nos dice:
Even though some roboticists claim that the ideal social robot looks and behaves just like a human, successful social robot design often goes counter this claim. The trick to getting our attention ins't necessarily to look like us - it's simply to mimic cues that we recognize and respond to.
En efecto, algunos de los robots sociales más exitosos son o han sido zoomórficos (por ejemplo, el perro AIBO o la foca PARO), otros de tipo asistente personal, como por ejemplo JIBO, casi parece más una especie de altavoz inteligente un poco evolucionado y otros, en fin, como los popularísimos Pepper o Nao, aunque sin duda humanoides, no intentan, ni de lejos, parecerse realmente a un humano.
Así que parece que no, que no es necesario parecerse a un humano como sí intentan, por ejemplo, Sophia, Geminoid o robots sexuales como los de Real Doll.
Nuestra tendencia a la antropomorfización y a proyectar arquetipos y emociones humanas hacen el resto.
Así que no, desde un punto de vista de la eficacia de la interacción, no parece estrictamente necesario que los robots sociales sean 'muy humanos'.
La ética
Pero hasta ahora, he estado hablando de la efectividad de la relación, de la capacidad del robot para interactuar socialmente con el humano, para generar vinculación y hacer de esa interacción una interacción fructífera, sean cuales sean los frutos de la interacción que estamos buscando.
¿Y desde un punto de vista ético?
Creo, y lo he manifestado en más de una ocasión, que los robots sociales más inteligentes desafían muchas de nuestras concepciones éticas y filosóficas y las desafían tanto que no me parece que todavía existan criterios éticos claros y consensuados.
Y, precisamente por eso, apostaría por la prudencia.
Está demostrado, por numerosas experiencias, que los robots sociales pueden, gracias a su capacidad para provocar vínculos afectivos y relacionales, generar efectos muy positivos, no solo con personas normales sino, más interesante aún, en ancianos o en personas aquejadas de demencia, soledad o autismo. Pero también somos conscientes de riesgos, de la creación de dependencias excesivas, de la renuncia al trato con humanos, del uso del robot como excusa...
Eso se puede producir en cualquier tipo de interacción con un robot (y, por cierto, también con animales u otro tipo de objetos) pero parece que, especialmente en el caso de personas con alguna carencia emocional o cognitiva, se puede generar un, digamos, engaño, mayor si el robot se parece mucho a un humano en todos los sentidos. A lo mejor el valle inquietante actúa en este caso, paradójicamente, como muro protector, pero preferiría, por si acaso, no apostar por ello.
Y así, y mientras entendemos mejor las implicaciones psicológicas de la interacción de personas con robots, y mientras nos aclaramos nosotros mismos sobre lo que es ético y lo que no, mejor optar por robots que, aunque sociales, tengan un aspecto claramente robótico, claramente artificial sin que sea estrictamente necesario, siquiera, que sean humanoides.
En conclusión
No renunciemos al progreso, ni mucho menos, todo lo contrario, pero seamos prudentes en el camino.
Hablamos de robots, pero también de personas y sentimientos.
No hay comentarios:
Publicar un comentario