miércoles, 16 de septiembre de 2020

¿Qué es un robot social?

En los posts de las últimas semanas con frecuencia he mencionado los robots sociales, un tema por el que he empezado a interesarme como una ampliación del interés en robótica e inteligencia artificial en general, y sobre las interfaces entre humanos y robots en particular. 


Pero ¿qué es exactamente un robot social? No sé si podré contestarlo tan exactamente, pero al menos en este artículo voy a recoger alguna definición y alguna idea complementaria, basándome en los primeros capítulos del libro 'Social robots: Technological, Societal and Ethical Aspectos of Human-Robot Interaction', un libro coral compuesto por muchos artículos de investigación sobre la materia y editado por Oliver Korn.


Nada más empezar, ya en la introducción, el propio Oliver Korn nos introduce el término de la siguiente forma:


Social robots are robots which cannot only do services for us but also communicate


Una definición muy sencilla, pero no estoy seguro que sea del todo afortunada. Es cierto que los robots sociales tienen como característica esencial que se comunican con los humanos, que se comunican además en general de una forma muy natural (parecería extraño que a un ente al que se le califica de social no exhibiera esa capacidad). Pero me parece que se queda corta. 


Así, por ejemplo, bajo ese paraguas podrían caer también los chatbots y más aún los altavoces inteligentes, que pueden ser considerados robots (aunque robots software) y una de cuyas características diferenciales es precisamente su capacidad de comunicación y relación con los humanos en lenguaje natural, especialmente por voz. Y sin embargo, leída ya una cierta literatura al respecto, cuando se aplica al término robot social no se piensa en chatbots ni altavoces inteligentes, aunque apunto de mi cosecha que quizá habría que empezar a considerar el incluirlos y que no me extrañaría una cierta convergencia y solape no solo tecnológico sino como diseño de productos.


Más adelante, en uno de los primeros artículos del libro, se aporta una definición dada por Dautenhand y Billard  ya en 1999 y que dice:


Social robots are embodied agents that are part of a heterogenous group:  society of robots or humans. They are able to recognize each other and engage in social interactions. they possess histories (perceive and interpet the world in terms of their own experience), and they explicitly communicate with and learn from each other.


Esta definición aporta mucho más. En primer lugar, y creo que importante, nos habla de un 'embodiment' (materialización), es decir, de que esos robots tiene realidad física y eso parece excluir a los chatbots software, aunque quizá sea dudoso si esa característica excluye también a los altavoces inteligentes. Ese 'embodiment', especialmente cuando la forma que adopta el robot es humanoide, tiene mucha importancia en cuanto a las expectativas que el robot genera, en cuanto a sus capacidades de comunicación (que pueden incluir lenguaje no verbal como gestos) y en cuanto a la aceptación o no por parte de los humanos e incluso las relaciones afectivas que puede generar. 


La definición pone también mucho énfasis en la capacidad de interacción. Y llama la atención también alguna característica más avanzada como la experiencia, el aprendizaje, o la pertenencia a un grupo.


Aunque no se trata de una definición, se aporta alguna consideración adicional que ayuda a entender a que nos referimos:


Social robots will entertain, train, educate or simply interact with users in the same way as humans do.


Vemos aquí un poco a qué tipo de robots nos referimos, a qué tipo de cosas se dedican: asistencia, formación o mera interacción. Es decir, son robots con capacidad avanzada de interacción con los humanos y en general pensados, no tanto para una labor de naturaleza industrial sino un poco, precisamente, a realizar labores de interacción con personas en otro tipo de ámbitos si se quiere menos profesionales o menos laborales y sobre todo, no industriales.


De hecho, como un subconjunto de robots sociales, se suele hablar de robots de servicio ('service robots'). ¿Que es un service robot? En este caso disponemos de una definición procedente de un estándar, en concreto la definición aportada en la norma ISO 8373. En ella se dice que un 'service robot' es:


a robot that performs useful tasks for humans or equipment excluding industrial automation aplications.


Donde se destacan sólo dos aspectos: el primero que hace algún tipo de trabajo, es decir, no es mero entretenimiento, pero, eso sí, no se trata de un robot industrial. Cabe citar, por su popularidad, que por ejemplo a los robots aspìradora, tipo Roomba, se les considera 'service robots'. ¿Es un robot aspiradora un robot social? Lo cierto es que sus capacidades de comunicación no son muy amplias, aunque también es cierto que eso no es por limitaciones de tecnología sino porque, como concepción de producto parece que no las necesita. Eso sí, es un robot que presta servicios y lo hace típicamente en el hogar.


Con lo visto, creo que, desde un punto de  vista académico, lo que es un robot social queda con unas fronteras algo abiertas. Sin embargo, en el fondo no resulta demasiado difícil entender de qué estamos hablando. Hablamos de robots físicos (no es extraño que incluso aspecto humanoide), hablamos de robots que no están pensados para fabricación, sino para ayuda en el hogar o entornos no de producción y hablamos de robots que suelen tener capacidades avanzadas de comunicación e interacción con humanos, porque entre sus labores habituales están cosas como formación, asistencia a ancianos o personas con discapacidad, entretenimiento, recepción a personas en hoteles o eventos y cosas así.


Unos robots que creo que van a florecer y ser más y más abundantes en no tanto tiempo, y unos robots que plantean algunos temas muy interesantes no solo en lo tecnológico (que en muchos aspectos es común con otras áreas de la robótica, lingüística, comunicación o inteligencia artificial), sino también en lo social, lo antropológico y lo ético.


lunes, 14 de septiembre de 2020

El roce hace el cariño... ¿también con los robots?

Los cambios suelen provocar miedos y resistencias. Es un patrón común y por eso existe una disciplina denominada gestión del cambio.


Ese patrón aplica también al caso de introducción de nuevas tecnologías. Cuando pensamos en tecnologías de automatización, como pueden ser los robots, uno de los posibles motivos de la resistencia es el temor a que los robots acaben haciendo irrelevante nuestro trabajo y que nos sustituyan por llevar a cabo mejor las tareas que antes teníamos encomendadas.


En el caso de los robots, sobre todo si pensamos en robots androides, que emulan en su forma física a las personas, y especialmente en el caso de los robots sociales cuyo cometido es tratar con las personas en su día a día en áreas como el cuidado de mayores o enfermos, se producen recelos adicionales. Su aspecto humanoide los hace a un tiempo más cercanos y atractivos pero también pueden llegar a generar más rechazo como se describe en el fenómeno del 'Uncanny Valley' precisamente por parecerse demasiado a nosotros...sin ser iguales.


En el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic, los autores mencionan estudios que  confirman que existe un rechazo generalizado a aceptar la idea de robots en tareas del día a día, especialmente cuando su labor es tratar con personas vulnerables. Así, nos dicen: 


Recents polls in the United States and Europe suggest that the broader public is not very willing to accept social robots for everyday use, particularly in areas such as eldercare and other socially assistive and interactive applications. 


Sin embargo, los mismos autores mencionan otros experimentos en que, el hecho de que las personas objeto de análisis tuvieran conocimiento o experiencia previa de interacción con robots, hacía que su actitud hacia estos ingenios fuese más favorable. Y de ahí obtienen una conclusión, o al menos una expectativa:


We can therefore expect that as people have increased contact with robots, be it directly or through the media, attitudes will grow more positive, and the willingness to use robots will increase over time.


Es decir, la expectativa es que, a medida que tengamos mayor contacto con los robots, incluso simplemente a través de vídeos o noticias, las receptividad hacia ellos mejorará.


Y creo que es una expectativa más que razonable. En el fondo, si lo pensamos bien, a pesar de ciertas resistencias iniciales que puedan existir, acabamos admitiendo y asimilando muy bien las nuevas tecnologías. 


Creo que hay un doble motivo para ello.


Por un lado porque, evidentemente, las nuevas soluciones tecnológicas tienen como misión ayudarnos, hacernos la vida más fácil. Y ya sabemos que a lo bueno es fácil acostumbrarse.


Pero, además, porque, aunque el ritmo de avance tecnológico es alto, las mejoras las vamos percibiendo de forma gradual lo que también las hace más aceptables. En el fondo, no nos damos verdadera cuenta de la velocidad del cambio más que cuando echamos la vista atrás. 


Hoy en día es impensable no disponer de ordenadores individuales tanto en ámbito profesional como personal y, sin embargo, hace no tantas décadas, no existían ordenadores en las empresas ni mucho menos en las casas. Y nos hemos acostumbrado y nos parece bien e incluso casi imprescindible.


Hoy en día es casi impensable no disponer de algún tipo de acceso a Internet. Y no un acceso cualquiera, sino un acceso en banda ancha...cada vez más ancha. Y nos hemos acostumbrado, y nos parece bien y si en algún sitio no disponemos de WiFi o datos estamos casi perdidos, inquietos e incluso malhumorados. Y sin embargo, no hace tantos años el acceso a Internet no era generalizado ni mucho menos en banda ancha.


Hoy en día raro, muy raro es quien no dispone de un móvil y no un móvil cualquiera, sino todo un smartphone que es un pequeño ordenador lleno de Apps y, por supuesto conectividad en banda ancha, no solo para voz, sino para mensajería, vídeo y lo que haga falta. Y nos hemos acostumbrado, y nos parece bien. Pero hace apenas dos décadas los móviles no estaban generalizados y hace muchos menos años que se generalizaron los smartphone. 


Y así con todas las grandes tecnologías, digitales o no.


¿Y los robots? Pues creo que va a pasar lo mismo. Ya nos hemos acostumbrado a disponer de asistentes personales y chatbots que nos hablan en lenguaje natural. Al principio llamaba un poco la atención y hacía gracias, pero ya es algo natural y casi común. Ya es tambiñen algo relativamente extendido el uso de los robots aspiradora en los hogares, unos robots que son autónomos y que también nos hablan. Y ya es normal tener altavoces inteligentes como Alexa a los que pides todo tipo de cosas de viva voz. No es tan raro ya, en hospitales o almacenes, la existencia de robots autónomos para el transporte de materiales. Y en cuanto a los robots androides, todavía no están generalizados, pero ya los vemos en tiendas de juguetes, en exposiciones tecnológicas, en vídeos. Ya no nos sorprendería tanto encontrarnos con ellos en la recepción de un hotel o de un evento. Si no nos ha sucedido ya, antes o después nos va a suceder.


Y creo que va a seguir así. Creo que cada vez nos encontraremos con más frecuencia con  robots en el trabajo y en el hogar. Y algunos de ellos serán humanoides. Y casi todos nos hablaran y entenderán nuestras órdenes. Y tendrán cada vez mayor autonomía y mayor soltura en su conversación, movimiento e incluso expresión de emociones. Y serán más y más abundantes y más y más capaces.


Y nos acostumbraremos. Y nos parecerá bien. Y los echaremos en falta si se nos estropean o no disponemos de ellos por alguna razón. Y lo que nos parecerá sorprendente será recordar cómo, sólo unos pocos años, quizá alguna década atrás, no existían robots y nos preguntaremos cómo podíamos vivir sin ellos.


Y es que, en efecto, nos acostumbramos a la tecnología. Es que las tecnologías nos hacen la vida más fácil y es que, como en todo, el roce hace el cariño.


Si, también con los robots.


viernes, 11 de septiembre de 2020

BPMN y modelado de procesos fácil con Bruce Silver


'BPMN quick and easy with method and style' es un libro que explica, de forma muy concisa pero también muy eficaz, los elementos fundamentales del lenguaje de modelado BPMN, el estándar de la industria para el modelado de procesos de negocio. Y viene a constituir una versión revisada y, sobre todo, concentrada, del famoso 'BPMN Method and Style' de este mismo autor. 

El libro consta de nueve capítulos estructurados como sigue:
  • 1. What is BPMN?: proporciona unas ideas preliminares sobre lo que es BPMN comparándolo con los tradicionales y menos formales flowcharts pero reconociendo también alguna limitación en BPMN.

  • 2. BPMN by example: Un capítulo muy importante porque en él explica los elementos básicos de BPMN a medida que va ejemplíficándolos en un proceso. Habla sucesivamente de las actividades, de las bifurcaciones paralelas, de pools y lanes, de flujos de mensaje, de eventos de inicio, de los tipos de tareas, de eventos de inicio y fin, de objetos de datos y de anotaciones. Es una forma de exposición que, si bien puede parecer poco ordenada, es muy efectiva a la hora de comprender de manera incremental los principales elementos del lenguaje.

  • 3. The Method: Introducidos los formalismos principales en el capítulo anterior, en éste el autor expone su propio método de trabajo para, con un enfoque 'top-down', ir construyendo un modelo en seis pasos.

  • 4. BPMN Style: Y, como complemento del anterior, en este capítulo el autor aporta una serie de reglas de estilo, reglas que no son obligatorias según la especificación de BPMN pero que, en la experiencia del autor, conduce a mejores diagramas.

  • 5. DMN and decision tasks: Introduce de manera breve el nuevo lenguaje de modelado para reglas de negocio y decisiones: DMN, (Decision Model &Amp; Notation) y como encaja con BPMN

  • 6 Parallel flow: Un breve capítulo para hacer alguna consideración más específica sobre bifurcaciones y flujos paralelos.

  • 7. Events: Una explicación, inevitablemente un poco más compleja, sobre los eventos como el temporizador y los mensajes, cómo actúan los eventos en frontera de actividad, cómo se relacionan los eventos y las actividades de mensaje, etc

  • 8. Instance alignment: Habla, brevemente, sobre bucles y actividades multi-instancia.

  • 9: Becoming proficient y finaliza el libro con un par de indicaciones sobre cómo seguir aprendiendo y mejorando. Así, explica primero bpmnPRO, una App con conceptos de gamificación pensada para el aprendizaje de BPMN, y luego menciona la propia oferta del autor en materia de formación y certificación.

'BPMN quick and easy with method and style' es un libro que consigue, a la vez, dar una idea bastante completa de BPMN pero de una forma que no se hace larga ni farragosa aunque quizá no sea del todo completa. De todas formas, comparado con lo que he podido leer hasta la fecha sobre BPMN creo que es claramente, la mejor introducción que he encontrado. 

Bruce Silver

(Fuente: Traducción y ligera elaboración de la ficha de autor en la versión Kindle de su libro 'BPMN Method and Style') 
Bruce Silver

Bruce Silver es el presidente de Bruce Silver Associates, un proveedor de servicios de consultoría y formación en el área de Gestión de Procesos de Negocio. Es también fundador y presidente de BPMessentials, proveedor de servicios de formación y certificación.

Sus aportaciones originales a BPMN incluyen el enfoque bautizado como 'Method and style' y el perfil BPMN-I para intercambio de modelos.

Su sitio web (www.brsilver.com) es conocido por sus informes y comentarios acerca de los últimos desarrollos en estándares BPM, herramientas y productos. Fue miembro del equipo técnico que desarrolló la especificación BPMN 2.0 en el OMG y contribuyó a la sección de BPMN del examen de certificación OMG OCEB BPM.

Antes de fundar Bruce Silver Associates en 1994, fue vicepresidente responsable de workflow y gestión documental en la firma de analistas BIS Strategic Decisions, que posteriormente se convertiría en Giga (actualmente integrada en Forrester Research).

Bruce Silver es poseedor de un grado universitario y un doctorado en Física por la Universidad de Princeton y el MIT, y cuatro patentes americanas en el campo de la imagen electrónica.

Puedes conocer más, visitando su Method & Style, la página de su compañía, o siguiéndole en Twitter donde se identifica como @bpmswatch

Ficha técnica:

AUTOR: Bruce Silver
EDITORIAL: Code-Cassidy Press
AÑO: 2017 
ISBN: 978-0982368169
PAGINAS: 124

miércoles, 9 de septiembre de 2020

Visitando el origen literario de los robots


Me gusta de vez en cuando visitar los orígenes,las fuentes últimas de las ideas más populares o influyentes de nuestro tiempo, al menos de aquellas que me interesan.

Visitar en este caso suele querer decir leer, una lectura que beba de fuentes originales, de libros o artículos escritos por los grandes pensadores, los grandes genios, los grandes transformadores, los grandes 'influencers' del pasado.

Cuando me he interesado por la psicología o el psicoanálisis, he acudido a la lectura de Jung, de Adler y, por supuesto, de Freud.

Cuando mis intereses han apuntado hacia la filosofía, no he dejado de echar un vistazo a Aristóteles o Platón.

Y en literatura, me he leído a muchos de los grandes clásicos españoles y mundiales, sin hacerle ascos a 'tochos' tan intimidantes como El Quijote, el Ulises de James Joyce, Moby Dick, Madame Bovary, La Regenta y tantos otros.

Beber en fuentes originales, además de aportar muchas veces mayor calidad literaria y de pensamiento que los resúmenes y elaboraciones posteriores, te permite acceder al pensador original, a su estilo y sus  matices y de paso tener más criterio cuando se escucha una opinión u argumentación en ellos fundamentada.

Pero, evidentemente, si en este blog hablo de acudir a los orígenes, no estoy pensando en psicología, en filosofía o en literatura. Estoy pensando en management y, sobre todo, en tecnología.

Ese mismo interés en conocer las fuentes originales me llevó, por ejemplo, hace ya bastantes años a adquirir y leer obras seminales y muy citadas de la Inteligencia Artificial como son 'The Society of Mind' de Marvin Minsky o el legendario 'Perceptrons' de Minsky y Papert, dos libros que guardo en mi estantería como auténticos tesoros. 

Pero pasando ya al campo específico de la literatura y los robots he leído, por supuesto, decenas de relatos de Isaac Asimov, donde me he encontrado en numerosas ocasiones con sus famosísimas tres leyes encabezando algunas de sus narraciones. Y he disfrutado de algunos relatos que me han cautivado (o tambiñen hecho reír) como 'La última pregunta', 'La máquina que ganó la guerra' o '¡Mentiroso!'

Karel Capek

Y mi último viaje en busca de fuentes primeras, la que en el fondo, y tras tantos rodeos, motiva este post, ha sido también literario y relacionado con los robots. En esta ocasión, he querido leer 'R.U.R.' (Rossum's Universal Robots), una obra de teatro estrenada en 1920 y donde el literato checo, Karel Capek introdujo por primera vez en lengua inglesa, la palabra robot.

Parece que cualquier obra introductoria sobre robots se siente en la obligación de mencionar esta obra y yo ya llevaba tiempo deseando leerla por mí mismo.

Me he encontrado una obra de lectura fácil pero que quizá, contemplada desde los ojos de hoy día, justo cien años después de sus estreno, sea un tanto tópica, un tanto simple, y casi, casi infantil. Una obra que, sin embargo, tiene el mérito de lo primigenio, de lo original. Y una obra donde se abordan ya temas aún en el candelero como la eliminación del trabajo de las personas, el miedo a la rebelión de las máquinas y los sentimientos de los robots.

Parece que en este siglo que ha transcurrido desde el estreno de 'R.U.R.' hemos avanzado muchísimo en tecnología pero no tanto en mitos, miedos y tópicos.

Y puede, sólo puede, que esa sea la mayor enseñanza obtenida de la lectura de este clásico literario-tecnológico y la mayor recompensa, si exceptuamos, por supuesto, el simple placer de leer y de leer a clásicos de un tipo u otro.


lunes, 7 de septiembre de 2020

Cinco principios de la robótica más allá de las leyes de Asimov


Ahora que surge con fuerza la búsqueda de principios éticos que rijan la tecnología en general, y la inteligencia artificial y la robótica en particular, puede resultar interesante repasar los antecedentes que existen, lo que se ha hecho sobre la materia.

Son 'archi-famosas' las tres leyes de la robótica que definió Isaac Asimov y que utilizó con frecuencia en sus relatos. Son leyes que demuestran un gran sentido común y una orientación filosófica muy acertada. Pero, en el fondo son literatura, aplicables en un mundo de ficción, pero no implementables como tales hoy en día ni a nivel legal ni mucho menos tecnológico. Aunque son muy conocidas, las recuerdo:


  • Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley


En esa línea van el discurso sostenido por el Engineering and Physical Sciences Research Council (EPSRC) en la introducción de su documento 'Principles of Robotics' conclusión de unos talleres llevados a cabo en 2010 conjuntamente con el Art and Humanities Research Council (AHRC), un documento del que he tenido conocimiento leyendo el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic.

El documento incluye cinco leyes de la robótica on un doble enunciado, uno legal y otro para el público general. A continuación incluyo los enunciados generalistas de esos cinco principios (traducción propia):


  • Los robots no deberían ser designados como armas, excepto por razones de seguridad nacional.

  • Los robots deberían ser diseñados y operador de forma que cumplan con la ley existente, incluyendo la privacidad.

  • Los robots son productos y como tales productos, deberían ser diseñados para ser seguros y confiables.

  • Los robots son productos manufacturados. No deberían usar la simular de emoción o intención para explotar a individuos vulnerables.

  • Debería ser posible averiguar quién es el responsable de cada robot.


No dejan de ser principios muy generalistas, aunque quizá más cercanos a la realidad y preocupaciones actuales. 

Me llama la atención la salvedad que se incluye en el primer principio, admitiendo como válido el uso de robots-arma por motivos de seguridad nacional. Dado lo elusivo y manipulado que es ese concepto de 'seguridad nacional' puede ser una forma de abrir la puerta al uso de robots arma de forma generalizada. Y también aunque comprensible, y perfectamente aceptable en su enunciado literal y su intención, me llama la atención el cuarto principio, que impone restricciones de importancia a los robots sociales e, incluso, a los simples chatbots o altavoces inteligentes.

De todas formas no deja de tratarse meros principios. En el fondo, creo que cualquier principio sólo será realmente ejecutivo en el momento en que se convierta en ley.


lunes, 31 de agosto de 2020

Problemáticas para la implantación de robots sociales


Aunque conocemos los robots sobre todo de los ámbitos industriales, existen otro tipo de robots que están destinados a interactuar con personas en otro tipo de temas como son la educación, la asistencia sanitaria, la atención a ancianos, el tratamiento de personas con trastorno autista, el trabajo en el hogar o protocolarias y atención a clientes en hoteles, eventos, etc

Son los denominados robots sociales, unos robots donde, al contrario de lo que ocurre en la mayoría de las aplicaciones industriales, la interacción humano-robot (HRI, Human-Robot Interface) es un elemento muy importante y con impacto en su aceptación, efectividad e incluso impacto psicológico y vinculación.

Se trata de un área de la robótica relativamente joven, muy interesante y con una gran proyección de futuro...pero que, aparte de a su juventud y a la problemática intrínseca que abordan, se encuentran con ciertos problemas potenciales para su implantación.

En el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic '' se nos habla de alguna problemáticas o riesgos que afectan específicamente a la implantación de este tipo de soluciones robóticas. En concreto, se mencionan estas cinco:


  • Satisfacción de las expectativas de los usuarios: Con frecuencia, los usuarios tienen ideas preconcebidas sobre los robots y lo que pueden hacer, unas ideas que pueden proceder de medios poco rigurosos como películas de ciencia-ficción. Además, y como ya vimos en otro artículo, los personas hacemos suposiciones sobre lo que puede hacer un robot en función de su aspecto o de otras funciones. En cualquier caso, las expectativas pueden ser no realistas y es preciso gestionarlas para que no se conviertan en un problema.

  • Adicción: Hablamos de adicción entendido fundamentalmente como establecimiento de vínculos emocionales con el robot lo cual genera una cierta dependencia del mismo. Eso puede resultar peligroso para el usuario y, además, abre la vía a usos deshonestos aprovechando el poder que el robot tiene sobre la persona para influir en ella u obtener información.

  • Robo de atención: Podría ser la versión robótica del exceso de atención a redes sociales, videojuegos o a los smartphone en general. Está demostrado, además, que el sonido y el movimiento, dos elementos que suelen caracterizar a los robots sociales, capturan la atención. El diseño de un robot social, en este sentido, debería incluir mecanismos para que el robot no atraiga ala atención cuando no es necesario.

  • Pérdida de interés por parte del usuario: El efecto de lo novedoso puede tener un impacto positivo engañoso en la aceptación de un robot social, pero ese efecto novedad desaparece por lo que puede afectar a la aceptación del robot a medio o largo plazo.

  • Comportamiento abusivo con los robots: Esta es quizá una demostración del comportamiento sorprendente de los humanos, en este caso en sentido negativo. Quizá por rechazo, quizá por puro vandalismo, pero hay constancia de casos de comportamiento abusivo con robots, por ejemplo, en centros comerciales. Desde comportamientos absurdos como el intento de intimidación o el 'bullying' hasta ataques físicos contra el robot. Eso, desde luego, es negativo desde el punto de vista de negocio y, además, nos hace preguntarnos por la psicología de los atacantes.


Cinco dificultades para implantar robots sociales. La verdad es que cualquier tecnología encuentra barreras para su implantación y los robots sociales no iban a ser menos. Eso sí, algunas son realmente sorprendentes y diferentes de lo habitual.


viernes, 28 de agosto de 2020

Un par de consideraciones éticas en estudios de interfaces Humano-Robot


Mucho se habla, y debemos alegrarnos de ello, de la ética en relación con la robótica y la inteligencia artificial.

Quizá me atrevería a decir, eso sí, que se trata de un debate que está más centrado en plantear interrogantes y cuestionamientos pero llegando todavía a pocas conclusiones. Pero al menos el debate está ahí, y eso creo que es bueno. 

También me atrevería a decir que no deberíamos circunscribir nuestro interés en temas éticos a la inteligencia artificial y la robótica. Hay muchos otros campos tecnológicos y sobre todo no tecnológicos que se beneficiarían de esa mirada ética.

En cualquier caso, y volviendo al tema de la ética, aplicada a la robótica y la inteligencia artificial, me encuentro en el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic algunas consideraciones éticas relacionadas con los métodos de investigación en materia de interfaces Humano Robot (HRI, Human-Robot Interface). No se trata de un panorama ético completo relacionado con robótica ni mucho menos. Se circunscribe al ámbito de esas interfaces Humano-Robot. Más aún, no abarca todas las implicaciones éticas de esas Interfaces Humano-Robot, donde habría 'mucha tela que cortar'. Se enfoca, únicamente, a consideraciones en los métodos de investigación, unos métodos que, normalmente, implica 'emplear' a personas para que en circunstancias más o menos de laboratorio, interaccionen con robots.

En ese ámbito, los autores hacen básicamente un par de consideraciones:
  • Consentimiento informado: De forma similar a lo que ya es práctica común en el ámbito sanitario cuando un paciente va a ser sometido a una intervención o tratamiento con posibles consecuencias indeseadas, cuando una persona va participar en un experimento de investigación en materia de HRI, los participantes deben ser informados de la naturaleza del estudio, de lo que cabe esperar de él y, por supuesto, insistiendo en la voluntariedad de la participación. Y de forma similar a lo que ocurre en ese ámbito sanitario o incluso en tantos tantos términos y condiciones en contratos de cualquier naturaleza, los participantes deben declarar expresamente y por escrito su entendimiento de lo que se requiere de ellos y lo que se va a hacer con la información obtenida. Los autores destacan que, no obstante, hay estudios en que por su propia naturaleza, el participante no debe conocer completamente todas las particularidades del experimento puesto que lo invalidaría. Una de estas situaciones sería, por ejemplo, cuando se utiliza la técnica del Mago de Oz, es decir, el usuario cree estar interactuando con un robot cuando, en realidad, 'entre bambalinas' es una persona la que simula el comportamiento del robot. Para estos casos lo que se propone es que, al menos, una vez finalizado el experimento, se explique al participante todo lo que no se le indicó antes.

  • Seguridad física y psicológica: Los aspectos de seguridad física son casi evidentes, pero quizá no tanto los de seguridad psicológica. ¿A qué se refiere ésto? Está comprobado que, con bastante frecuencia, se produce una cierta ligadura sentimental o emotiva de los humanos hacia los robots. Así, en casos en que el experimento consiste en una interacción prolongada, se puede producir un cierto choque emocional cuando finaliza el experimento y el humano pierde la presencia de un robot a cuya compañía se había acostumbrado. Teniendo en cuenta que unos de los ámbitos de interés para el trabajo con robots sociales es el trato con con colectivos como ancianos o personas con alteraciones del espectro autista, colectivos evidentemente emocionalmente vulnerables, se hace especialmente delicado vigilar el impacto psicológico y emocional del experimento. 
La primera de las consideraciones, aunque con implicaciones éticas, es quizá más bien una consideración metodológica y casi legal, pero no deja de impresionar un poco la segunda consideración.

El hecho de que un experimento, a priori inocuo, pueda dejar algún tipo de secuelas psicológicas o emocionales, nos hace ver lo delicado de la materia con que tratamos. Y no deja de ser llamativo que algunos de los peligros más importantes de las interfaces humano-robot sean de carácter psicológico y nazcan de algo tan natural, tan humano, casi diría tan hermoso, como que los humanos tendamos a establecer vínculos emocionales con todo aquello con que nos relacionamos: con otras personas, con animales... y con los robots.