lunes, 31 de agosto de 2020

Problemáticas para la implantación de robots sociales


Aunque conocemos los robots sobre todo de los ámbitos industriales, existen otro tipo de robots que están destinados a interactuar con personas en otro tipo de temas como son la educación, la asistencia sanitaria, la atención a ancianos, el tratamiento de personas con trastorno autista, el trabajo en el hogar o protocolarias y atención a clientes en hoteles, eventos, etc

Son los denominados robots sociales, unos robots donde, al contrario de lo que ocurre en la mayoría de las aplicaciones industriales, la interacción humano-robot (HRI, Human-Robot Interface) es un elemento muy importante y con impacto en su aceptación, efectividad e incluso impacto psicológico y vinculación.

Se trata de un área de la robótica relativamente joven, muy interesante y con una gran proyección de futuro...pero que, aparte de a su juventud y a la problemática intrínseca que abordan, se encuentran con ciertos problemas potenciales para su implantación.

En el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic '' se nos habla de alguna problemáticas o riesgos que afectan específicamente a la implantación de este tipo de soluciones robóticas. En concreto, se mencionan estas cinco:


  • Satisfacción de las expectativas de los usuarios: Con frecuencia, los usuarios tienen ideas preconcebidas sobre los robots y lo que pueden hacer, unas ideas que pueden proceder de medios poco rigurosos como películas de ciencia-ficción. Además, y como ya vimos en otro artículo, los personas hacemos suposiciones sobre lo que puede hacer un robot en función de su aspecto o de otras funciones. En cualquier caso, las expectativas pueden ser no realistas y es preciso gestionarlas para que no se conviertan en un problema.

  • Adicción: Hablamos de adicción entendido fundamentalmente como establecimiento de vínculos emocionales con el robot lo cual genera una cierta dependencia del mismo. Eso puede resultar peligroso para el usuario y, además, abre la vía a usos deshonestos aprovechando el poder que el robot tiene sobre la persona para influir en ella u obtener información.

  • Robo de atención: Podría ser la versión robótica del exceso de atención a redes sociales, videojuegos o a los smartphone en general. Está demostrado, además, que el sonido y el movimiento, dos elementos que suelen caracterizar a los robots sociales, capturan la atención. El diseño de un robot social, en este sentido, debería incluir mecanismos para que el robot no atraiga ala atención cuando no es necesario.

  • Pérdida de interés por parte del usuario: El efecto de lo novedoso puede tener un impacto positivo engañoso en la aceptación de un robot social, pero ese efecto novedad desaparece por lo que puede afectar a la aceptación del robot a medio o largo plazo.

  • Comportamiento abusivo con los robots: Esta es quizá una demostración del comportamiento sorprendente de los humanos, en este caso en sentido negativo. Quizá por rechazo, quizá por puro vandalismo, pero hay constancia de casos de comportamiento abusivo con robots, por ejemplo, en centros comerciales. Desde comportamientos absurdos como el intento de intimidación o el 'bullying' hasta ataques físicos contra el robot. Eso, desde luego, es negativo desde el punto de vista de negocio y, además, nos hace preguntarnos por la psicología de los atacantes.


Cinco dificultades para implantar robots sociales. La verdad es que cualquier tecnología encuentra barreras para su implantación y los robots sociales no iban a ser menos. Eso sí, algunas son realmente sorprendentes y diferentes de lo habitual.


viernes, 28 de agosto de 2020

Un par de consideraciones éticas en estudios de interfaces Humano-Robot


Mucho se habla, y debemos alegrarnos de ello, de la ética en relación con la robótica y la inteligencia artificial.

Quizá me atrevería a decir, eso sí, que se trata de un debate que está más centrado en plantear interrogantes y cuestionamientos pero llegando todavía a pocas conclusiones. Pero al menos el debate está ahí, y eso creo que es bueno. 

También me atrevería a decir que no deberíamos circunscribir nuestro interés en temas éticos a la inteligencia artificial y la robótica. Hay muchos otros campos tecnológicos y sobre todo no tecnológicos que se beneficiarían de esa mirada ética.

En cualquier caso, y volviendo al tema de la ética, aplicada a la robótica y la inteligencia artificial, me encuentro en el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic algunas consideraciones éticas relacionadas con los métodos de investigación en materia de interfaces Humano Robot (HRI, Human-Robot Interface). No se trata de un panorama ético completo relacionado con robótica ni mucho menos. Se circunscribe al ámbito de esas interfaces Humano-Robot. Más aún, no abarca todas las implicaciones éticas de esas Interfaces Humano-Robot, donde habría 'mucha tela que cortar'. Se enfoca, únicamente, a consideraciones en los métodos de investigación, unos métodos que, normalmente, implica 'emplear' a personas para que en circunstancias más o menos de laboratorio, interaccionen con robots.

En ese ámbito, los autores hacen básicamente un par de consideraciones:
  • Consentimiento informado: De forma similar a lo que ya es práctica común en el ámbito sanitario cuando un paciente va a ser sometido a una intervención o tratamiento con posibles consecuencias indeseadas, cuando una persona va participar en un experimento de investigación en materia de HRI, los participantes deben ser informados de la naturaleza del estudio, de lo que cabe esperar de él y, por supuesto, insistiendo en la voluntariedad de la participación. Y de forma similar a lo que ocurre en ese ámbito sanitario o incluso en tantos tantos términos y condiciones en contratos de cualquier naturaleza, los participantes deben declarar expresamente y por escrito su entendimiento de lo que se requiere de ellos y lo que se va a hacer con la información obtenida. Los autores destacan que, no obstante, hay estudios en que por su propia naturaleza, el participante no debe conocer completamente todas las particularidades del experimento puesto que lo invalidaría. Una de estas situaciones sería, por ejemplo, cuando se utiliza la técnica del Mago de Oz, es decir, el usuario cree estar interactuando con un robot cuando, en realidad, 'entre bambalinas' es una persona la que simula el comportamiento del robot. Para estos casos lo que se propone es que, al menos, una vez finalizado el experimento, se explique al participante todo lo que no se le indicó antes.

  • Seguridad física y psicológica: Los aspectos de seguridad física son casi evidentes, pero quizá no tanto los de seguridad psicológica. ¿A qué se refiere ésto? Está comprobado que, con bastante frecuencia, se produce una cierta ligadura sentimental o emotiva de los humanos hacia los robots. Así, en casos en que el experimento consiste en una interacción prolongada, se puede producir un cierto choque emocional cuando finaliza el experimento y el humano pierde la presencia de un robot a cuya compañía se había acostumbrado. Teniendo en cuenta que unos de los ámbitos de interés para el trabajo con robots sociales es el trato con con colectivos como ancianos o personas con alteraciones del espectro autista, colectivos evidentemente emocionalmente vulnerables, se hace especialmente delicado vigilar el impacto psicológico y emocional del experimento. 
La primera de las consideraciones, aunque con implicaciones éticas, es quizá más bien una consideración metodológica y casi legal, pero no deja de impresionar un poco la segunda consideración.

El hecho de que un experimento, a priori inocuo, pueda dejar algún tipo de secuelas psicológicas o emocionales, nos hace ver lo delicado de la materia con que tratamos. Y no deja de ser llamativo que algunos de los peligros más importantes de las interfaces humano-robot sean de carácter psicológico y nazcan de algo tan natural, tan humano, casi diría tan hermoso, como que los humanos tendamos a establecer vínculos emocionales con todo aquello con que nos relacionamos: con otras personas, con animales... y con los robots.

lunes, 24 de agosto de 2020

Clasificación de emociones y robots

A medida que los robots y máquinas inteligentes se van sofisticando incluyendo elementos avanzados como la visión artificial, el procesamiento de lenguaje natural o el control del movimiento, y a medida que progresan los denominados robots sociales, robots orientados a la interacción con personas, cobra un creciente interés la capacidad de esos robots, esas máquinas o ese software para reconocer emociones humanas y para simular emociones en el robot.


De cara a ese tratamiento computerizado de emociones, es interesante el clasificar y poner orden de alguna manera a un territorio tan aparentemente difuso e inasible como son las emociones humanas.  A pesar de la dificultad de la empresa, existen en realidad desde hace ya un cierto tiempo diferentes modelos de clasificación y caracterización de las emociones humanas, unos modelos que provienen en realidad más del campo de la psicología que de la computación, la robótica o la inteligencia artificial.


En el libro libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic se nos habla de algunos de estos modelos. 


Modelo OCC

Así por ejemplo, se nos menciona el modelo OCC de Ortony, Clore y Collins, que se remonta a 1988 y que identifica 22 categorías de emociones con base en  las reacciones ante eventos, los actos de agentes tanto externos como uno mismo, o el atractivo o no de un objeto. Proporciona una cobertura bastante amplia de las situaciones que un robot se puede encontrar.

Modelo Circumflejo de Russell
Otros modelos de clasificación de emociones lo que hacen es situar las emociones dentro de un espacio multidimensional. Así, por ejemplo, en la obra citada se nos menciona el modelo bidimensional de Russell. En este modelo las dimensiones serían la valencia ('valence') y la excitación ('arousal') .

Posteriormente, ese modelo ha dado lugar a otros más evolucionados y que incluyen alguna otra dimensión como el llamado PAD (Pleasure, Arousal, Dominance) que, como puede intuirse del nombre, utiliza tres dimensiones en lugar de dos: placer, excitación y dominio.

Según se nos menciona en la obra citada, la mayor parte del software que reconoce emociones, trabaja todavía, sin embargo, con el modelo de Ekman, algo más sencillo y que reconoce sólo seis emociones: ira, disgusto, miedo, felicidad, tristeza y sorpresa.

Establecidos esos modelos de emociones, sean éstos más o menos acertados y más o menos cercanos a la realidad, no resulta difícil imaginar que un software de machine learning, adecuadamente entrenado, pueda reconocer, con base en expresiones faciales, lenguaje verbal y gestos, las emociones descritas en los modelos. También resulta perfectamente creíble, y más con lo que ya vemos en los cada vez más populares chatbots, que los robots sean capaces de 'impostar', con mayor o menor naturalidad esas emociones y adaptar su lenguaje, sus gestos y su expresión facial (cuando están dotados de algún tipo de cara) a esas emociones.

La vía está abierta, pues, para que los robots sociales simulen un comportamiento emocional y afectivo...y a partir de aquí las posibilidades con inmensas, y las implicaciones sociales y éticas también. Es apasionante pero impresiona un poco. Está claro que, aparte de los aspectos científicos y tecnológicos, empieza a haber algo más en juego...

viernes, 21 de agosto de 2020

La revolución humana de Juanma Romero y Miguel Ángel Pérez

'Humanos en la oficina' nos habla la situación de las personas en los entornos laborales en medio de la revolución digital a la que estamos sometidos. Y lo hace desde dos perspectivas diferentes que aportan sus dos autores: Juanma Romero y Miguel Ángel Pérez. 

Juanma Romero se preocupa fundamentalmente, aunque no únicamente, de cómo afectan los cambios y la realidad laboral a los más jóvenes. Comienza explicándonos su visión del liderazgo y preguntándose qué futuro tendrán nuestros hijos. Luego hace un largo análisis de las diferentes generaciones ('Baby Boomers, 'Generación X', 'Millenials', etc) qué elementos les caracterizan y cómo afrontan el mundo laboral. Y finaliza su parte proponiéndonos modelos de comportamiento con base en lo que él mismo denomina 'sus héroes favoritos'. 

Por su parte, Miguel Ángel Pérez, aporta una visión de la gestión del talento que comienza por 12+1 reglas que nos sirven para ser 'más humanos', sigue con un análisis algo más largo de la gestión del talento en los entornos corporativos y aportando ideas y propuestas de su método 'Humanos en la oficina' que da título al libro. Y finaliza con una serie de consejos para lograr ser 'los humanos que queremos ser'. 

Un libro breve, escrito en un estilo próximo, ágil y de muy fácil lectura. 

Juanma Romero

(Fuente: Biografía en su página oficial.)

Juanma Romero
Licenciado en Periodismo por la Universidad Complutense de Madrid, cuenta con un curso especializado en Periodismo Electrónico por el Grupo Recoletos. Es periodista de TVE desde 1985, con responsabilidades en los telediarios de TVE. Entre 2007 y 2012 ha sido editor de informativos de Canal 24 Horas. Posteriormente director de Los Desayunos de TVE.

En la actualidad es director y presentador de ‘Emprende’, programa que emite semanalmente Canal 24 Horas, La 1 y todos los canales internacionales de TVE. También los emiten, en directo, Facebook, Twitter y YouTube.

Es habitual presentador de eventos de contenido social y económico en lugares como el Hotel Ritz de Madrid, Westin Palace, Campus Google y diversos emplazamientos de las Cámaras de Comercio de España y universidades. Presenta y modera eventos para empresas y organizaciones sociales, profesionales y empresariales, principalmente.

Durante los años 2014 y 2018 ha recibido treinta y seis premios nacionales e internacionales (España, Bruselas, San Francisco y Las Vegas) como reconocimiento a su labor profesional en el mundo de la comunicación, el periodismo y el emprendimiento y la difusión de la transformación digital y las nuevas profesiones.

Ha sido experto de referencia del grupo Coca-Cola para redes sociales (2011). Su conocimiento de los medios, hablados y escritos, le ha permitido ser entrevistado por más de mil emisoras de radio, de una en una, entre los años 2010 y 2011, gracias a un método propio desarrollado por él.

Desde 1997 imparte seminarios, talleres, charlas y conferencias sobre transformación digital, nuevas profesiones, startups y empleabilidad, venta en plataformas digitales, emprendimiento, carisma y empatía, marca personal y cómo dar bien las malas noticias, tanto en el ámbito médico como en el empresarial.

Ha sido profesor en el Instituto RTVE de carisma, magnetismo y marca personal; en IE Business School en el Máster de Innovación Digital y Tecnología; en Deusto Business School en formación de portavoces y comunicación en radio y televisión; en el Centro de Estudios Garrigues, en el Máster Executive en Emprendimiento & Startups; y en la Universidad Complutense de Madrid en temas de visibilidad y emprendimiento.

Es autor y coautor de diferentes publicaciones: ‘Vender en las plataformas digitales’ (2018), ‘Carisma y empatía’ (2018), ‘Emprender en la Era Digital’ (2017), ‘Píldoras para emprender’ (2015), ‘¡Que se entere todo el mundo!’ (2013), ‘En patera y haciendo agua’ (2011), Uso y abuso de la tecnología’ (2006).

En marzo de 2012, con motivo de la apertura de la oficina en España de LinkedIn, su perfil fue mostrado como uno de los dos más interesantes, junto al del entonces presidente del Gobierno de España, en el vídeo promocional que hizo la propia red social.

Ha viajado en dos ocasiones a San Francisco, California, donde ha impartido seminarios para enseñar a las empresas españolas a lograr visibilidad en los medios de comunicación de EE.UU. y España.

En enero de 2016 fue invitado a pronunciar una conferencia sobre tecnología en el Consumer Electronics Show de Las Vegas, la feria de tecnología de consumo más importante del mundo.

Puedes conocer más, visitando su página oficial o siguiéndole en Twitter donde se identifica como @jromero_tv

Miguel Ángel Pérez Laguna

(Fuente: Ligera elaboración propia del apartado 'Acerca de' de su perfil en LinkedIn)

Miguel Ángel Pérez Laguna
Premio Nacional al Impulso de la Formación Directiva y de Postgrado 2019 por la Asociacion Española de Escuelas de Negocio AEEN

Miguel Ángel Pérez Laguna., Licenciado en Psicología, ha conseguido ser el experto directivo en RR.HH y Comunicación más seguido en las redes profesionales en Habla Hispana

Con más de 15 años de experiencia como Director de RRHH , atracción de talento y comunicador, Miguel Ángel Pérez Laguna es Coautor de 'Human Resources Leadership' (2013) y “ LinkedIn: Monetize in the economic graph” (2015).

Se forma paralelamente en comunicación audiovisual , social media y marketing de rr.hh, siendo uno de sus sellos de identidad. Para ello crea sus propias producciones para generar mensajes de impacto, así como una increíble capacidad de generar una comunidad mundial de seguidores en la red.

Sus conferencias han tenido el aplauso de más de 10.000 personas en sus diversos formatos de ponencias, conferencias y cursos en EEUU, Argentina, Líbano y Colombia.

Colaborador en RTVE . Director del programa líder de audiencia en Radio “Humanos en la Oficina” y Productor de “Solos en la Madrugada” en la cadena online galardonada con la Antena de Plata

Miguel Ángel Pérez Laguna es el creador del Grupo de Comunicación Humanos en la Oficina

Referenciado y colaborador en medios como El País , El Economista , Diario Abierto

Su labor como speaker, moderador y ponente ha sido aclamado en foros como Digital Enterprise Show o Human Capital Forum

Puedes conocer más del autor visitando su página oficial o siguiéndole en Twitter donde se identifica como @maperezlaguna.

Ficha técnica:

EDITORIAL: ExLibric
AÑO: 2020 
ISBN: 978-8418230318
PAGINAS: 142

miércoles, 19 de agosto de 2020

Robots emotivos y el test de Turing emocional


¿Tienen sentimientos los robots? ¿Están sometidos a emociones del estilo de las que afectan a los humanos?


Aunque existen, evidentemente, teorías al respecto, no es sencillo del todo saber qué son exactamente los sentimientos y emociones humanas, de la misma forma que no es sencillo del todo explicar en qué consiste la conciencia. Tenemos una percepción muy clara de esos fenómenos. Tenemos conciencia de nosotros mismos, tenemos conciencia, e integrados en esa conciencia, tenemos sentimientos y sufrimos emociones. Tenemos percepción clara de esa conciencia y esas emociones, pero no las sabemos explicar claramente. 


A pesar de esa dificultad para definir sentimientos y emociones, podemos, sin temor, asegurar que no, los robots no tienen sentimientos, no sufren emociones. Los humanos sí, pero los robots no. Y sin embargo...


La demanda de emotividad robótica


Y, sin embargo, los robots más avanzados, los dotados de la más sofisticada Inteligencia Artificial, parecen mostrar empatía y parecen exhibir ciertas emociones. ¿Qué ocurre? Pues ocurre que, aunque los robots no tienen ni conciencia de sí mismos ni tampoco sentimientos y emociones propias, sí pueden, con bastante eficacia, identificar las emociones humanas, expresar ciertas emociones y relacionar correctamente las emociones que identifican en los humanos con aquellas que simulan como propias del robot.


En el libro 'Human-Robot Interacion. An Introduction', Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic nos hablan de los llamados robots sociales, aquellos destinados fundamentalmente a  la interacción con los humanos y nos dicen, en efecto, que:


Social robots are often designed to interpret human emotion, to express emotions, and at times, even to have some form of synthetic emotion driving their behavior.


Paradójicamente, es importante desposeer a los robots de su estilo aséptico, 'robótico' diríamos, dotándoles de esa capacidad de manejo de emociones (identificación y expresión) porque, especialmente si son antropomorfos (androides) las personas inconscientemente los sometemos a expectativas de comportamiento similar al humano, incluyendo el comportamiento emocional. Los mismos autores nos dicen. 


Even if a robot has not explicitly been designed to express emotions, users may still interpret the robot's behavior as if it had been motivated by emotional states. A robot that it is not programmed to share, understand or express emotions will thus run into problems when people interpret its behavior as desinterested, cold or plain rude.


¿Cómo consiguen los robots detectar y expresar emociones?


Las emociones de los robots


Pues para ello están dotados de un conjunto de algoritmos, muchos de ellos basados en deep learning que permiten, por ejemplo, identificar emociones mediante visión artificial, a partir de las expresiones faciales de las personas. También pueden obtener información sobre emociones de las personas mediante NLP (Natural Language Processing), analizando el texto, las palabras (por ejemplo, análisis de sentimiento) pero también analizando la entonación y el énfasis en diferentes palabras. Incluso, en ciertos contextos, se pueden utilizar otros parámetros como las variaciones en conductividad de la piel, que se encuentran relacionadas con los estados afectivos. Un conjunto variado, en fin, de informaciones de entrada y de algoritmos que, analizando esa información, pueden obtener conclusiones sobre las emociones que afectan al humano que interacciona con el robot.


Y los robots también pueden simular emociones. Pueden expresarlas mediante 'su cara', una cara que, en ocasiones realmente es un dibujo en una pantalla pero que, en otras, son caras más o menos realistas recubiertas con una especie de piel artificial y con actuadores capaces de generar expresiones faciales. Pueden también expresar emociones mediante el movimiento de sus brazos y manos robóticos. Y pueden, por supuesto, expresar emociones mediante lenguaje natural, mediante síntesis de voz. En este caso, de nuevo, las emociones pueden expresarse explícitamente en las palabras utilizadas pero también se puede trabajar el manejo de la entonación y el énfasis.


Es decir, los robots no tienen sentimientos y emociones propias, pero pueden, con cada vez mayor eficacia, identificar las emociones de sus interlocutores humanos y simular unas emociones propias en sus respuestas a los humanos. Pueden simular emotividad.


El test de Turing emocional


Quizá podríamos pensar que, al igual que en su momento Alan Turing estableció su famoso test para clasificar una máquina como inteligente, a lo mejor se podría ir pensando en un test de Turing emocional para calificar a un robot como emotivo. Y el robot pasaría la prueba si, al interaccionar con entes (personas o robots) apreciase una conducta emotiva tal que no supiese distinguir al humano del robot.


La visión de unos tales robots emotivos, unos robots capaces de superar ese presunto test de Turing emocional,  nos puede resultar atractiva o distópica pero lo cierto es que el auge de los robots parece imparable y si esos robots han de relacionarse con las personas, caso especialmente de los llamados robots sociales, somos las propias personas las que muchas veces inconscientemente, esperemos y demandamos de ellos una cierta dosis de emotividad.


miércoles, 12 de agosto de 2020

Cuatro principios de diseño de interfaces Humano-Robot

 

El diseño de las interfaces Humano.Robot, la forma en que las personas interactuamos, por todo tipo de medios (visual, acústico, táctil...) con entes artificiales físicos, especialmente aquellos con aspecto humanoide, es un tema difícil y multidisciplinar que incluye, por supuesto, elementos técnicos avanzados que involucran con frecuencia algoritmos de inteligencia artificial, pero también consideraciones psicológicas, sociológicas, etc. Esa visión tan multidisciplinar convierte a esta labor en interesanísima pero también en muy compleja.


Aunque no hay recetas cerradas, sí existen algunos patrones u algunos principios básicos para el diseño de esas interacciones Humano-Robot. En el libro 'Human-Robot Interacion. An Introduction.' de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic se identifican, en concreto, cuatro principios de diseño a tener en cuenta, cuatro principios muy generales, pero interesantes y clarificadores:


  • Correspondencia entre forma y función: Tiene que ver con las expectativas que tenemos para los robots en función de su forma, como mencionábamos en el artículo '¿Qué esperamos de los robots?'. Si un robot tiene forma humanoide, esperaremos un comportamiento próximo al humano, si tiene ojos esperamos que vea y si habla esperamos que también entienda. En el diseño del robot conviene tener esto en cuenta y darle una forma que se corresponda con lo que realmente hace, sin generar expectativas subrepticias adicionales. 

  • Promete poco y entrega mucho ('Ùnderpromise and overdeliver'): Muy relacionado con el punto anterior y el tema de las expectativas, conviene no generar en los usuarios o personas que interaccionan con el robot unas expectativas altas porque el fallo para satisfacerlas afecta negativamente a la relación con el robot. Es mejor mantener unas expectativas moderadas y, en todo caso, sorprender positivamente a los usuarios con sus capacidades. Se trata este principio de una idea que podría aplicarse mucho más allá del diseño interfaces humano-robot. Un principio que, por desgracia, muchas veces se aplica casi a la inversa, creando unas expectativas exageradas que luego no es posible satisfacer.

  • La interacción expande la función: Se trata de un principio muy curioso. Nos indica que las personas tendemos a llenar de alguna forma las carencias que pueda tener el robot en su relación, aplicando para ello los valores, creencias y necesidades de la persona. El principio aconseja tener esto en cuenta para, de alguna forma, diseñar el robot de una modo abierto, especialmente en el caso de robots con capacidades reducidas y pone como ejemplo el robot Paro (un robot con forma de bebé foca en que su forma de animal parecido a una mascota hace que se relacione bien con humanos pese a tener unas capacidades reales bastante limitadas).

  • No mezclar metáforas: De alguna forma pide ser consistente en la metáfora que supone el propio diseño incluso físico del robot. Así, se nos dice que si es humanoide, mejor mantener la forma humana completamente y no que tenga aspectos humanos, por ejemplo la cara, y el resto que sea tipo máquina. O, también que si se usa un robot para enseñar matemáticas a adultos, resultaría extraño que el robot tuviera la forma de un animal. Esas inconsistencias tienden a generar rechazo.

Como se ve, se trata de unos principios de diseño generales, que quizá no dan recetas del todo concretas, pero que son una buena guía. Además, ya nos hacen ver las particularidades de este tipo de diseños donde juegan un papel muy relevante la psicología y expectativas de las personas y cómo esa afecta a la relación con los robots.

Un tema, sin duda, interesantísimo.

lunes, 10 de agosto de 2020

¿Qué esperamos de los robots?


Mucho. Esperamos mucho de los robots. Quizá demasiado. Al menos a corto plazo.

El ruido mediático alrededor de la tecnología en general, y de la inteligencia artificial y la robótica en particular, hace pensar al gran público que los robots hoy en día tienen mayores capacidades de las que realmente poseen a nivel práctico. Un ruido mediático generado por todo tipo de medios, favorecido por divulgadores con poca base pero también, es preciso reconocerlo, impulsado por la propia industria tecnológica que con frecuencia cae en el vicio del llamado 'overpromise'.

Sin embargo, no es a ese exceso de promesas a lo que me quería referir realmente en este post, sino a otro tipo de expectativas que mantenemos sobre los robots y que tienen más que ver con nuestra propia naturaleza humana y con la proyección de esa naturaleza en los entes artificiales, especialmente cuando estos son de tipo androide (forma humana) en lo que podríamos denominar una antropomorfización de los robots.

Y me surge el tema continuando con la lectura del libro 'Human-Robot Interacion. An Introduction.' de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic.

En el capítulo que dedican al diseño de interfaces entre humanos y robots nos avisan de que las personas establecemos expectativas sobre los robots con base, por ejemplo, en su forma. Así, si hablamos de androides, robots con forma humana, tendemos a esperar de esos robots un comportamiento similar al humano. Nos dicen, por ejemplo que si el robot tiene ojos, automáticamente asumimos que ve y que entiende lo que está viendo. Si tiene brazos, asumimos que es capaz de coger cosas o incluso de estrechar la mano a un humano.Si el robot es capaz de hablar, asumimos como evidente que es también capaz de escuchar lenguaje natural, de entender lo que se le dice y mantener una conversación. Si el robot tiene ciertas capacidades para expresar emociones, asumimos que no sólo expresa 'las suyas' sino que es también capaz, y esto sí que es un auténtico salto mortal, de captar y entender nuestras emociones.

Esas asunciones son muy lógicas si estuviésemos hablando de otras personas, probablemente incluso de otro ser vivo. Pero no son evidentes en el caso de un robot. Cada una de esas suposiciones que hemos hecho es un desafío tecnológico en sí mismo, una capacidad compleja o muy compleja.

Es por ello que los diseñadores de robots tiene que estar muy atentos a su apariencia externa y a las expectativas que inadvertidamente ese aspecto puede generar. Si un robot, especialmente un androide, genera seguramente no intencionadamente, expectativas muy elevadas y luego no las satisface, la experiencia de las personas con el robots no será buena.

Esperamos mucho de los robots. Quizá demasiado. Pero también es cierto que la tecnología y el propio diseño de robots avanzan muy rápidamente. A lo mejor no estamos tan lejos de ver satisfechas algunas de nuestras expectativas más exigentes.


viernes, 7 de agosto de 2020

Certificación como Blue Prism Solution Architect con Prasanna Kummar Ballepalli


'Blue Prism Masterclass II. Business Savvy Architects' viene a ser la continuación del anterior libro del autor 'Blue Prism Masterclass' y con la misma intención, a saber, servir como herramienta para aquellos profesionales que estén preparando la certificación en la herramienta Blue Prism. Pero si el anterior estaba orientado a la certificación como desarrollador, 'Business Savvy Architects' se dirige a aquellas personas que preparan su certificación como Arquitectos de Soluciones. 

La estructura del libro es muy sencilla: empieza por cinco capítulos breves que introducen aspectos técnicos y de gestión de Blue Prism así como del proceso de certificación:
  • 'Robotic Projects - POC'
  • 'Process Assessment'
  • 'Blue Prism Design Components'
  • 'Design procedure and documents'
  • 'Design Authority'
De éstos, el capítulo más largo (dentro de la brevedad) y más relevante, es el tercero. A estos capítulos le siguen dos apéndices que, en realidad, son el cuerpo central del libro, dos apéndices en que uno contiene 105 preguntas de tipo test, algunas agrupadas por escenarios de negocio / automatización, y el siguiente proporciona, de manera razonada, las respuestas correctas. 

Nos encontramos pues, fundamentalmente, ante una herramienta de preparación de un examen y en ese sentido es útil o muy útil. Pero, como me ocurrió con la obra anterior del autor, me quedo con las ganas de que amplie la parte de conceptos (los capítulos iniciales). Es evidente su dominio de la herramienta y de los elementos de arquitectura, diseño y gestión y me encantaría basada en esos conocimientos leer una descripción amplia y detallada de la arquitectura y diseño de robots en Blue Prism. 

Prasanna Kumar Ballepalli

(Fuente: Traducción y ligera elaboración propia de su su perfil en LinkedIn)

Prasanna Kumar Ballepalli
Desde 2018, Arquitecto jefe de Inteligencia Artificial y RPA en Prosegur.

Arquitecto IT certificado en Blue Prism y Microsoft y co certificaciones en Six Sigma Green Belt e ITIL Foundation.

Con varios años de experiencia dirigiendo programas de transformación empresarial para compañías multinacionales y foco en fuerzas de trabajo digitales (RPA e Inteligenia Artificial). Su fespecialización tecnológica incluye: RPA, machine learning, chatbots inteligentes (NLP / NLU), analítica e Inteligencia Artificial. Durante los últimos años, además, ha trabajado y dirigido la cualificación en campos como Inteligencia Artificial, Automatización Robótica de Procesos y .Net.

Tiene un grado en Computer Science y se considera auto-motivado, creativo, jugador de equipo y con excelentes habilidades de comunicación.

Puedes saber más sobre él visitando su perfil en LinkedIn o seguirle en Twitter donde se identifica como @prasannak040.

Ficha técnica:

EDITORIAL: Autoeditado
AÑO: 2020 
ISBN: 978-9354067006
PAGINAS: 131

miércoles, 5 de agosto de 2020

Tres barreras para el trabajo multidisciplinar en interacción robot-humano.


Aunque parece existir una tendencia creciente a la colaboración interdisciplinar, a hibridar el conocimiento tecnológico, especialmente en materias como la robótica y la inteligencia artificial, con las disciplinas humanísticas o las ciencias sociales, lo cierto es que esa colaboración no siempre es sencilla.

Existen diferencia de intereses, de métodos, de formas de entender el trabajo y, probablemente, un acusado desconocimiento mutuo entre las diferentes disciplinas, especialmente si provienen de campos del saber muy diferentes.

Estoy intentando profundizar en el campo de la interacción humano-robot y en los denominados robots sociales, una área de investigación netamente multidisciplinar donde se dan cita ingenieros, científicos sociales, psicólogos, etc y como parte de ese empeño estoy leyendo el libro 'Human-Robot Interaction. An introduction' de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic.

En el primer capítulo los autores destacan el carácter multidisciplinar de la materia y al hacerlo no eluden el citar las dificultades de esa colaboración. En concreto, plantean el tema hablándonos de tres grandes colectivos: los ingenieros, los científicos (especialmente científicos de ciencias sociales) y los que denomina diseñadores. Y dividiendo un poco el foco e intereses de estos colectivos, identifican tres grandes barreras:

  • Foco: En esta dimensión se habla de si el foco del trabajo se centra en la tecnología,caso fundamentalmente de los ingenieros, o en el lado humano (que predomina en científicos sociales y diseñadores).

  • Conocimiento: Se trata, quizá, de una distinción más sutil. Se refieren los autores a que en el caso de ingenieros y científicos el conocimiento es explícito y se suele manifestar en forma de publicaciones, artículos, conferencias, etc mientras que, en el caso de los diseñadores, el conocimiento es más intuitivo y por tanto implícito, menos manifiesto.

  • Actitud ante la realidad: Finalmente, en esta barrera observan los autores una dicotomía entre una actitud más centrada en entender el mundo, propia de los científicos, frente a una actitud más de transformación de ese mundo hacia unos objetivos deseables, que domina en ingenieros y diseñadores.

Creo que, probablemente, en el trabajo multidisciplinar nos podemos encontrar alguna barrera más (insistiría, por ejemplo, en el simple desconocimiento) pero resulta interesante esta tipología de barreras identificadas, además, por personas que las viven en primera persona en su trabajo.

No quisiera de todas formas, dejar de advertir sobre la evidente simplificación que este tipo de clasificaciones suponen y con el serie peligro de caer en tópicos a veces burdos. Personalmente, siempre me han molestado un poco los tópicos simplistas y muchas veces injustos con que se caracteriza  los ingenieros, especialmente desde áreas humanísticas. Y no quisiera caer en ellos.

Al final, las personas son personas, no ingenieros, científicos o diseñadores y, por tanto, sus intereses y actitudes pueden diferir, ampliar y superar aquellos que en teoría caracterizan a 'su grupo' y muy especialmente si se trata de personas con vocación por un área de trabajo inherentemente multidisciplinar como puede ser la interacción humano-robot y los robots sociales.

En cualquier caso, es evidente que visto como grupos, las diferencias de conocimientos, intereses y actitudes existen y, sin caer en tópicos,  se deben tener en cuenta en grupos de trabajo multidisciplinares.