lunes, 1 de marzo de 2021

Nueve riesgos relacionados con la inteligencia artificial

Para bien y para mal, para ambas cosas, existe mucho eco mediático sobre las bondades y los riesgos que pesan sobre la inteligencia artificial y sobre las necesidades de carácter ético y regulatorio que se entienden necesarias para eliminar riesgos.

La inteligencia artificial es una tecnología (más bien una familia de tecnologías) avanzadas y apasionantes y, particularmente, me gusta más mirar su cara amable, sus éxitos a nivel funcional, su impacto en los negocios, su potencial para definir nuevas soluciones y su papel impulsor del desarrollo económico y el bienestar social.

A pesar de ello, no parece razonable ignorar los riesgos y problemáticas, y por ello, últimamente también me estoy ocupando de leer y entender posiciones críticas.

Así, por ejemplo, leyendo el libro 'Rebooting AI. Building Artificial Intelligence We Can Trust' de de Gary Marcus y Ernest Davies, me encuentro con un listado de riesgos que esos autores ven en la inteligencia artificial y que, sin ser los únicos, si son. sus palabras, los que más les preocupan. Se trata de estos nueve riesgos:


  • Exceso de atribución: un error por el que tendemos a asignar a las máquinas características humanas (ya nos hemos referido en este blog a algo parecido al hablar de antropomorfización) y eso nos conduce, entre cosas cosas, a atribuirles más capacidades y méritos de los que realmente tienen.

  • Falta de robustez: se argumenta que los sistemas de inteligencia artificial actual tienden a no ser robustos y no funcionar bien fuera de ciertos casos concretos.

  • Dependencia de los datos de entrenamiento: en muchos casos, los algoritmos de inteligencia artificial, y en particular de machine learning, dependen en mucha medida de los datos de que han dispuesto en su entrenamiento. Un algoritmo bien entrenado y con buenos resultados para aquella situación en que ha sido entrenado, puede comportarse de manera errónea en problemas algo diferentes al original

  • Sesgos: un filtrado poco cuidadoso en los datos de entrenamiento, puede dar lugar a que se perpetúen sesgos sociales existentes cuando a lo mejor querríamos otra orientación.

  • Efecto eco: se trata de un cierto efecto de amplificación o resonancia. . Así, debido a la enorme necesidad de datos de entrenamiento necesarios hoy en día, algunas estrategias de entrenamiento recurren a datos generados de forma artificial también por algoritmos. Es más, y quizá más importante, de manera progresiva, la información existente en la realidad será consecuencia de lo que se ha deducido o decidido por los algoritmos. Eso puede provocar una cierta realimentación o eco, en que los algoritmos se refuerzan a si mismos en sus conclusiones, quizá no correctas.

  • Manipulación: en la medida en que el entrenamiento de los algoritmos se realice con datos públicos, contenidos, por ejemplo, en internet y medios sociales, existe una cierta probabilidad de que esos datos puedan ser de alguna forma trucados o manipulados.

  • Amplificación de sesgos: el efecto eco, que mencionábamos más arriba, unido a unos ciertos sesgos de partida existentes realmente a nivel social, pueden resultar en una amplificación del sesgo.

  • Objetivos erróneos: Es muy fácil establecer objetivos erróneos para un algoritmo, no porque realmente haya ninguna mala intención o negligencia sino porque no advertimos que el objetivo es inexacto o erróneo y que una interpretación, digamos 'literal' por parte del algoritmo de lo que debe conseguir, lleva a éste a comportamientos absurdos.

  • Daño deliberado: La inteligencia artificial ya actualmente puede ser usada deliberadamente para causar un serio daño, desde su empleo en armas autónomas hasta todo tipo de ciberataques.

Veo que algunos riesgo se entrecruzan y mezclan un poco unos con otros pero, por lo demás, me parecen unos riesgos bastante ciertos, por más que, eso si, si sólo recurrimos a este listado de problemas, a esta especie de casa de los horrores de la inteligencia artificial, podemos llevarnos una visión negativa del estado y méritos reales de la inteligencia artificial. Una visión negativa que esa sí que no la comparto y que tampoco creo que sea fiel a la realidad.

De todas formas, lo importante cuando se identifican riesgos es establecer lo que se denominan, planes de mitigación (medidas para que esos riesgos no se traduzcan en problemas reales) y planes de contingencia (planes de acción en caso de que los problemas se materialicen).

En ese sentido, como punto de partida para trabajar en la mejora de la inteligencia artificial, es buena cosa disponer de identificaciones de riesgos como esta.

miércoles, 24 de febrero de 2021

Cinco aspectos es que nuestros cerebros aún superan a la inteligencia artificial

Corren, como se suele decir, ríos de tinta al respecto de aquellas capacidades en que los ordenadores, y particularmente los sistemas de inteligencia artificial, superan a las personas e hipotetizando sobre la posibilidad de llegar a la tan traída y llevada singularidad en que las máquinas superen a los humanos y se auto-mejoren dejando a la raza humana en un peligroso 'fuera de juego'.

Y corren también otros ríos de tinta, tan caudalosos como los anteriores, que defienden la superioridad de la mente humana y a veces se atreven a asegurar que las máquinas jamás nos podrán superar.

En muchos casos el debate cae en la imprudencia y utiliza, por un lado y por otro, posiciones gratuitas e injustificadas, más cercanas a la opinión, la especulación o el apriorismo que al argumento lógico, al dato o al anclaje en la realidad.

No me voy a pronunciar en exceso sobre la adecuación de sus argumentos, pero sí voy a recoger la opinión de Gary Marcus y Ernest Davies, quienes en su libro 'Rebooting AI. Building Artificial Intelligence We Can Trust' nos señalan cinco aspectos en los que, a su juicio, el cerebro humano supera todavía a los ordenadores. Son estos:


  • Entender el lenguaje

  • Entender el mundo

  • Adaptarnos flexiblemente a las circunstancias

  • Aprender cosas rápidamente sin necesidad de grandes cantidades de datos

  • Razonar a pesar de disponer de una información incompleta e incluso inconsistente

Lo más llamativo de esta propuesta de Marcus y Davies es que no recurren a tópicos en apariencia más fáciles de defender, como pueden ser la creatividad, el humor, la improvisación o el sentimiento. Muy al contrario, se concentran en capacidades, digamos, muy intelectuales, y más sorprendentemente todavía, el algunas que pueden parecer discutibles.

Nos dicen, por ejemplo, que los seres humanos superan a los ordenadores en entender el lenguaje cuando ya son moneda corriente los sistemas que interactúan por voz y usando lenguaje natural. O que, nos superan en entender el mundo o adaptarse cuando ya vemos vehículos autónomos, robots móviles o drones avanzados que parecen entender perfectamente su entorno y adaptarse.

Y sin embargo, no les falta razón. 

Es cierto que los sistemas de entendimiento de lenguaje natural, aún no alcanzan un verdadero entendimiento, sino sólo un entendimiento muy parcial que les permite extraer informaciones útiles, estructurar el discurso o reconocer intenciones dentro de un catálogo acotado. Pero no alcanzan un conocimiento profundo ni pones ese conocimiento en relación con un contexto amplio o con el llamado 'sentido común'.

Y es cierto que los vehículos autónomos perciben e interpretan su entorno pero siempre dentro de unos parámetros mas o menos conocidos y unos entornos más o menos previsibles. 

Es cierto, pues, que los seres humanos superamos aún a las máquinas en esos aspectos, aunque quizá los mencionados se traten de algunos de los baluartes que a lo mejor no podamos defender a largo plazo.

Parece muy claro que las máquinas nos superan en algunas cosas (en parte por eso las queremos) y en otras no. Y parece que aún vamos ganando ¿Seguirá siendo el saldo neto resultante favorable a los humanos como sin duda lo es ahora o se desequilibrará a favor de las máquinas en el futuro? 

A largo plazo sólo podemos hacer apuestas pero argumentar poco. 

A corto, y a pesar de los enormes avances de la inteligencia artificial, la verdad es que 'no hay color'. Seguimos ganando por goleada.


lunes, 22 de febrero de 2021

Seis preguntas a formular a cada nuevo éxito en Inteligencia Artificial

Cuando una tecnología o una metodología se ponen de moda comienzan a aparecer noticias confusas, inexactas y grandilocuentes sobre ella. Quizá no ocurra solo en tecnología ni metodologías pero, desde luego, en esos campos ocurre y mucho.

Y, claro, ese 'bombo', esa exageración y esa inexactitud no podía dejar de afectar a una disciplina tan potente, tan atractiva y que tanto pie da a la imaginación como es la inteligencia artificial.

Y, en efecto, nos movemos en medio de un torrente de noticias fantásticas y exageradas, de especulaciones y errores de concepto, de opiniones no fundamentadas, de promesas de tierras prometidas y de advertencias apocalípticas, que se entremezclan con los hechos, las verdades y los innegables y espectaculares avances y éxitos que realmente se están produciendo en el campo de la inteligencia artificial.

¿Cómo separar el grano de la paja? ¿Cómo saber dónde está la verdad? 

No es fácil, desde luego, pero como principios generales, conviene ser prudentes e incluso un poco escépticos, leer de varias fuentes (incluyendo la literatura más técnica aunque puedan ser mas 'dura') y contrastar si es posible con profesionales reales de este campo.

Un poco en esa línea, en su libro 'Rebooting AI. Building Artificial Intelligence We Can Trust'. Gary Marcus y Ernest Davies nos proponen seis preguntas que deberíamos formular ante la noticia de un gran éxito en inteligencia artificial. Son estas:


  • Dejando a un lado toda la retórica, ¿Qué es lo que realmente hace el sistema de inteligencia artificial?

  • ¿Cuán general es el resultado? Es decir, ¿se aplica sólo a una situación muy específico o es realmente genérico?

  • ¿Existe algún tipo de 'demo' para probar con mis propios ejemplos. Los autores aconsejan ser excépticos con el presunto avance si esa 'demo' no existe.

  • En caso de que los investigadores o, más bien, sus gabinetes de prensa) argumenten que el sistema de inteligencia artificial es mejor que los humanos, concretar de qué humanos estamos hablando y cuánto mejor es el el sistema.

  • ¿Hasta qué junto el éxito en esa tarea en concreto nos acerca a una inteligencia artificial genuina?

  • ¿Cómo de robusto es el sistema? ¿Se puede aplicar con otros conjuntos de datos sin necesidad de un re-entrenamiento masivo?

Como se puede observar, por detrás de esas preguntas late un cierto escepticismo, pero diría que no es un escepticismo sobre la tecnología en sí, sino sobre la comunicación exagerada, ampulosa y falta de exactitud que sobre la misma se suele hacer.

Diría, además que aunque estas preguntas están pensadas para el campo de la inteligencia artificial, en buena medida son aplicables, las preguntas y, sobre todo, el espíritu que las anima, a muchas otras tecnologías, metodologías e incluso simples tendencias de todo tipo.

Por desgracia, no podemos evitar la comunicación incorrecta, el 'postureo' tecnológico ni la sobre-actuación. Pero lo que sí podemos es ser prudentes, hacernos preguntas e intentar contrastar las noticias.


miércoles, 17 de febrero de 2021

Robótica y el retorno de la lógica difusa

Hace ya muchos años oí hablar de la lógica difusa o borrosa o, por su nombre original en inglés, 'fuzzy logic'. Se trata de una lógica que, en lugar de operar con valores exactos de sus variables, trabaja con términos ambiguos como 'poco', 'bastante', 'cerca' y términos por el estilo, de una forma parecida a como, en apariencia, o al menos superficialmente, razonamos con frecuencia los humanos.

La lógica difusa resuelve el problema tratando esos conceptos ambiguos como unas funciones de probabilidad. Es decir, a un valor concreto de una variable se le asigna una probabilidad de pertenencia a un valor difuso como 'bastante'. Y luego es capaz de aplicar reglas lógicas a esos términos borrosos.

Con esta base, los sistemas o controladores que utilizan lógica difusa, trabajan normalmente en tres fases:

  • Fuzzification: es decir, conversión del valor exacto en un valor borroso

  • Inferencia difusa: aplicación de reglas de inferencia que trabajan con términos borrosos y que constituyen la verdadera lógica difusa.

  • Defuzzification: paso, de nuevo, del valor difuso, a un valor concreto que se pueda emplear en un actuador físico real.

Lofti Zadeh
La lógica difusa tuvo su bautizo con el artículo 'Fuzzy sets' de Lofti Zadeh, publicado en 'Information and control'  nada más y nada menos que en 1965 y se ha considerado con frecuencia, o al menos así la conocí yo, como una técnica de Inteligencia Artificial

Pero la lógica difusa ha tenido, o al menos en mi percepción, una existencia algo gris, con algún periodo de esplendor pero, en general, bastante olvidada en la literatura y con muy poca presencia en medios populares ahora que todo lo que tiene que ver con la inteligencia artificial está omnipresente. Ni siquiera se suele mencionar ya a la lógica difusa como un ejemplo de técnica de inteligencia artificial, quizá deslumbrados por el machine learning y las redes neuronales profundas.

Puede ser un tema de marketing o puede que, simplemente, la lógica difusa, con éxitos que la han llevado hace ya muchos años a incorporarse a soluciones como el enfoque de cámaras fotográficas, se haya convertido en una tecnología ya asimilada y por tanto poco atractiva.

A veces me he preguntado qué ha sido de la lógica difusa, si sigue viva, dónde se aplica y si se investiga o trabaja más en ella y desde hace tiempo tengo en mi debe actualizarme un poco respecto a su estado del arte.

Pero, de forma un poco involuntaria, he recibido muy recientemente una pequeña actualización. Finalizando la lectura del libro 'Introduction to robotics: analysis, control, applications' de Saeed B. Niku, me he encontrado un último capítulo dedicado precisamente a la lógica difusa, evidentemente, orientada al campo de la robótica. El capítulo cuenta, de forma breve, sus fundamentos técnicos y lógicos y ya al final identifica algunas aplicaciones.

Nos dice que hay situaciones en que la lógica difusa puede ser la opción preferida o, incluso, la única. Y entre esas aplicaciones nos menciona el sistema de control para un robot móvil que se tenga que mover en un terreno irregular (mi mente se ha ido a vídeos del famoso robot Spot de Boston Dynamics caminando por exteriores), o el de un robot humanoide que 'choque los cinco' con una persona o, de nuevo, el de un robot humanoide cuyos rasgos faciales se modifiquen en función de lo que perciba en un interlocutor humano (ahora no he podido evitar pensar en el robot Sophia) o, por último, en los robots colaborativos que en ambientes industriales trabajan mano a mano con personas.

Se trata, como se ve, de ámbitos de aplicación muy avanzados y actuales.

Así que parece que no, la lógica difusa no estaba muerta. ni siquiera estaba viva pero convertida en algo asimilado y aburrido. Parece no solo viva, sino muy fresca y vital.

Quizá, sólo quizá, asistamos entonces al retorno de la lógica difusa y ésta se ponga de moda, no sé si decir que nuevo o casi, casi, por primera vez.


viernes, 12 de febrero de 2021

Tres principios para unas máquinas inteligentes beneficiosas para la humanidad

Cuando miramos hacia el futuro de la inteligencia artificial, un futuro que no sabemos del todo bien dónde situar, nos asaltan dudas y temores acerca de si realmente se puede alcanzar una inteligencia artificial generalista, una máquina super-inteligente, tan inteligente que pudiera superar de manera general a la inteligencia humana y que. en las visiones más extremas, en la llamada singularidad, se pueda llegar a  auto-mejorar y hasta tomar el control independizándose, por así decirlo, del dominio humano.

¿Es eso posible?

Creo que la respuesta más realista y honrada es que no lo sabemos. No parece que sea seguro, pero tampoco imposible. Si está claro que estamos lejos, bastante lejos de ese punto.

Pero estamos lejos si hablamos de nuestro nivel tecnológico actual, de las capacidades de la inteligencia artificial presente, frente a las que se necesitarían para una inteligencia artificial general como la mencionada. Pero no necesariamente lejos si hablamos de tiempo. Una disrupción tecnológica, un descubrimiento radical, podría acercar mucho algo que ahora mismo parece muy lejano, casi pura fantasía.

No estamos, pues, seguros de ese escenario sea posible, pero tampoco de que sea imposible. Así que quizá convenga estar vigilantes y preparados, y con tiempo, para un evento tan importante, tan disruptivo para la humanidad, quizá el más relevante desde su propia creación.

Trabajando un poco en esa línea Stuart Russell, en su libro 'Human compatible: AI and the problem of control' se preocupa inicialmente sobre lo que puede pasar si la inteligencia artificial alcanza el notable éxito de construir una inteligencia artificial general, un éxito que, sin embargo, el autor parece ver como un regalo envenenado, algo que pone en riesgo a la humanidad.

Sin embargo, su visión no es del todo pesimista, o al menos no del todo desesperanzada. No aboga por una eventual prohibición del desarrollo de la Inteligencia Artificial, una prohibición que no ve, por otro lado, muy viable.

Stuart J. Russell
Lo que aboga en realidad, al menos eso es lo que yo entiendo, es por cambiar la forma de diseñar los algoritmos de inteligencia artificial, para adoptar unas políticas que eliminen el riesgo de que las máquinas tomen el control en nuestra contra.

Para ello indica que debemos dejar de trabajar con máquinas o algoritmos a los que les establecemos objetivos, ya que esos objetivos se convierten en una suerte de mandamientos ineludibles, unos mandatos que la máquina o el robot intenta cumplir a toda costa, 'caiga quien caiga' por así decirlo. Y en la persecución del cumplimiento de sus objetivos puede generar muchos daños y acciones indeseadas incluyendo el evitar su propio apagado o ignorar las voluntades de los humanos o el daño que les pueda infligir puesto que eso va en contra del cumplimiento de sus objetivos.

Como alternativa, nos habla de unas máquinas beneficiosas  ¿Qué son esas máquinas beneficiosas? Pues, en palabras del propio Russel:

 

machines whose actions can be expected to achieve our objectives rather than their objectives.


O sea, que el truco está en cambiarle los objetivos. Ya no deben tener objetivos propios, aunque sean objetivos marcados por los humanos, sino que su gran objetivo pasa a ser el cumplimiento de los deseos de los humanos

Y para articular un poco más esa idea aporta tres principios que deben gobernar esas máquinas beneficiosas y que nada tienen que ver con las leyes de la robótica de Asimov (aunque un parecido lejano sí parecen guardar) Esos tres principios son


  • Máquinas altruistas puras: El único objetivo de la máquina es maximizar la realización de las preferencias humanas

  • Máquinas humildes: La máquina inicialmente tiene incertidumbre acerca de cuáles son esas preferencias

  • Predecir las preferencias humanas: La fuente última de información sobre las preferencias humanas es el comportamiento humano

Quizá convenga aclarar un poco el sentido de los dos últimos principios. La humildad, el desconocimiento inicial de cuáles son las preferencias humanas, obliga a que la máquina tenga que aprender de los humanos, para lo cual se aplicará el tercer principio. La idea es evitar una especie de soberbia algorítmica' que le haga 'pensar' a la máquina que sabe todo sobre los humanos sin 'consultar' realmente cómo son y qué prefieren. De no hacerlo así la máquina actuaría con una peligrosa 'cabezonería' similar a cuando le ponemos objetivos propios con el riesgo que eso conllevaría.

El tercer principio garantiza que esa super-inteligencia realmente se fija en los humanos para aprender evitando otras fuentes.

¿Cómo suenan esos principios?

¿Quizá abstractos y simplistas? ¿Quizá futuristas? ¿Quizá lejanos de una implementación real en algoritmos reales?

Puede que un poco sí, pero no olvidemos, por una parte, que estamos hablando de un futuro incierto y, por otro lado, y sobre todo, que quien los formula, Stuart Russell, es un muy buen conocedor de cómo funciona la inteligencia artificial real, fuera de toda fantasía, así que quizá tenga sentido darles a estos principios algún tipo de oportunidad.


miércoles, 10 de febrero de 2021

Una hipótesis sobre el impacto de la automatización en el empleo

¿Cómo influirá una creciente automatización en el empleo neto? ¿Destruirá empleo?¿Creará empleo?

El miedo a una destrucción masiva de empleo ante el avance de la automatización, una automatización cada vez más inteligente y capaz de sustituir no solo trabajos manuales sino también muchos trabajos intelectuales y cualificados, está más que justificado.

¿Pero tiene que ser así? ¿Tiene realmente que destruirse empleo neto?

Hay argumentos en las dos direcciones.

Los más pesimistas parecen mirar a lo inmediato y deducir que, evidentemente, si se automatizan muchos trabajos, deja de ser necesaria la mano de obra, y dejamos por tanto de ser necesarias las personas, estando abocados al paro masivo.

Los más optimistas piensan que si, que se destruirán ciertos empleos, pero que se crearán otros nuevos y que el balance neto será positivo. Y la revisión histórica de lo ocurrido con otras revoluciones industriales y tecnológicas parece darles la razón.

Sin embargo, en general estos análisis, al menos hasta donde yo he podido ver, y a pesar de aportar aquí o allá algún dato numérico, parecen más temerosos o voluntaristas según el caso que científicos, con escaso peso teórico, con poca aparato estadístico o matemático, con pocos argumentos sólidos en definitiva. En buena medida son más opiniones que análisis rigurosos.

Recientemente me he encontrado con otra forma de argumentar que me ha llamado la atención por lo diferente. No es que sea una teoría detalladísima, no al menos en lo que yo he podido ver, pero sí parece alumbrar una versión algo más razonada y no del todo evidente.

Se trata de la exposición que hace Stuart Russel en su libro 'Human compatible: AI and the problem of control' y que ejemplifica con el caso casi trivial de la pintura de paredes y el impacto de la tecnología (en este caso el grueso de las cerdas del pincel). La curva que ofrece es la siguiente:

Según este autor, la evolución del desempleo con la mejora tecnológica no sigue siempre la misma dirección. Al principio, cuando el nivel tecnológico es relativamente bajo, una mejora tecnológica aumenta el empleo. ¿Por qué? Porque el aumento de productividad que supone la tecnología, hace que un cierto tipo de servicios o soluciones que antes eran caros y poco atractivos, pasen a ser interesantes, se compren cada vez más y, por tanto, para que la producción pueda satisfacer la demanda, se genera empleo.

Sin embargo, a partir de un cierto punto en que ya no se va a demandar más, un aumento de tecnología, de automatización, supone ya una eliminación de mano de obra humana. Si no hay demanda adicional pero se necesita menos mano de obra humana para la producción, el resultado es el desempleo.

No puedo decir si este planteamiento es cierto o no, pero me parece un razonamiento interesante. Eso sí, no veo claro si está contemplando la tecnología y los servicios asociados un poco desconectados de lo que pasa en otros servicios o en el resto de la sociedad. Es posible que el incremento de riqueza que ha supuesto ese incremento de productividad se pueda traducir en mayor consumo de bienes y servicios completamente diferentes, tirando del empleo y llevando a un resultado neto positivo o al menos a suavizar el impacto.

En fin, la idea es interesante aunque tal vez no del todo concluyente.

Lo que probablemente podamos dar por seguro es el aumento creciente de la automatización por lo que, en la forma que corresponda, deberíamos prepararnos para ello.


lunes, 8 de febrero de 2021

Un valle inquietante táctil. Una experiencia práctica.

En el mundo de la robótica es bien conocido el fenómeno del valle inquietante o 'uncanny valley', una hipótesis propuesta por el profesor de robótica Masahiro Mori y, en realidad, nunca completamente confirmada, incluso discutida por algunos autores, pero que ha gozado de amplio predicamento y difusión.

Masahiro Mori

El valle inquietante recoge la reacción emocional de las personas ante un objeto, digamos que un muñeco o un robot, en función del parecido de ese robot con una persona sana.

Lo que la hipótesis del valle inquietante aplicada a robots viene a decir es que, a medida que un robot se va pareciendo más a una persona, aumenta la aceptación del mismo por los humanos. Pero esa tendencia positiva se rompe bruscamente cuando el robot ya se parece mucho a un humano sano pero todavía no es claramente igual. Existe, según la hipótesis, una zona relativamente estrecha de similitud con los humanos en que, no sólo no aumenta la aceptación sino que se produce un rechazo claro. Y la aceptación sólo vuelve a aumentar, y lo hace fuertemente, si el robot se parece muchísimo al humano sano hasta ser casi indistinguible.

El valle inquietante. Fuente: IEEE

Alguna posibilidad explicativa de ese valle inquietante que he tenido oportunidad de escuchar es que podría ser una reacción ante una figura que por parecerse mucho a un humano, pero no del todo, nos puede instintivamente recordar a una persona enferma, a un cadáver e incluso a un zombi.

El valle inquietante es sólo una hipótesis, no claramente confirmada empíricamente y discutida por algunos científicos y roboticistas. Aparte de la falta evidencia empírica, se le achacan cosas como que lo que marca la aceptación o rechazo no es sólo el aspecto sino un conjunto complejo de elementos que incluyen también, por ejemplo, el comportamiento. También hay quien piensa que ese rechazo puede ser sólo inicial y que rápidamente nos acostumbraríamos a ese robot con solo mantener el contacto.

Cuando he leído sobre el valle inquietante, es cierto que en general parece que el factor desencadenante de la aceptación o rechazo es en esencia el aspecto visual. Sin embargo, quisiera relatar una experiencia personal, probablemente poco relevante, pero que para mi fue llamativa.

Hace pocos días tuve ocasión de visitar un centro en que estaban trabajando y desarrollando software para varios robots, robots sociales por más señas.

La mayoría tenían el aspecto que podemos esperar de un robot social: una apariencia más o menos humanoide, pero claramente diferenciada como máquina y, en algún caso, podría ser discutible lo de humanoide porque sólo tenía trazas ligeras de esa 'humanidad'. Unos robots construidos, como es habitual, con metal, plástico y materiales parecidos.

Pero había un robot diferente: un robot con apariencia claramente humana, algo así como un maniquí pero dotada de voz y con una cierta dosis de expresión facial (algo así como una versión algo menos sofisticada del famosísimo robot Sophia). En cuanto a aspecto, diría que se movía en una zona cercana al valle inquietante, probablemente sin alcanzarlo del todo.

Pero lo que me llamó más la atención no fue el aspecto, sino el tacto. Desde hace tiempo tenía yo curiosidad por conocer el tacto que tienen esos robots que en cierta medida imitan la piel y musculatura humanas. Quería saber la sensación que produce y hasta qué punto se parece a tocar a una persona.

Así que tomé la mano del robot.

Y la sensación era extraña, bastante extraña. El tacto era suave y próximo a la carne y piel humanas e incluso podría decir que era casi cálido... pero sin duda tampoco era igual que un ser humano. Había un algo diferente y se notaba la ausencia de huesos lo que le confería una extraña blandura a lo cual se unía que era una mano inerte (no sé si porque este modelo de robot no es capaz de mover las manos y sus dedos o porque en ese momento no lo hizo como respuesta a mi acción de tomar su mano). En fin, como digo, una sensación extraña. No exactamente desagradable, pero sí extraña.

Unas horas más tarde se me ocurrió pensar que, quizá, sólo quizá, lo que había yo experimentado al tocar la mano de ese robot humanoide era una suerte de versión atenuada de valle inquietante, pero un valle inquietante que, en esta ocasión no tenía que ver con el aspecto, sino con el tacto.