miércoles, 30 de diciembre de 2020

Mis #TEDTalks de 2020

Y por séptimo año consecutivo, en este penúltimo día del año, publico la lista de TED Talks que he visto a lo largo de los últimos doce meses. 

En esta ocasión, este 2020 me ha dado para visualizar 48 de esas charlas.

Como ya pasó el año anterior, mi fuente para identificar las charlas que exploro han sido fundamentalmente las sugerencias de la propia página de TED, con alguna excepción particular en que directamente he buscado al speaker o a la charla por un motivo u otro.

En este 2020, alguna charla ha estado muy ligada a la actualidad, destacando quizá dos: la charla de la activista Greta Thunberg cuando estaba en su apogeo la cumbre del clima, y la profética charla de Bill Gates, muy mencionada hace unos meses, sobre una pandemia por coronavirus. 

Este año he favorecido las charlas relacionadas con robótica e inteligencia artificial y sobre algún tema relacionado del campo de la psicología o neurociencia como es la temática de la conciencia, y así me parecen dignas de destacar, por la relevancia de los personajes, la charla de Fei Fei Li y la de Rosalind Pickard, creadora del affective computing.

Del resto, los speakers, salvo alguna excepción puntual, no son muy conocidos y me he guiado, como digo, más por el atractivo del tema para mi que por el ponente.

Y, sin más, estas son mis 48 charlas de 2020:


De cara al 2021, iremos paso a paso pero espero seguir, como es habitual, a un ritmo aproximado de una charla por semana (con algún parón por viajes y/o vacaciones) y en principio seguiré favoreciendo las charlas sobre robótica a inteligencia artificial, aunque sin descuidar otros temas, algunos muy diferentes, que son de mi interés como psicología, liderazgo, innovación, tecnología, etc. Y seguiré, supongo, acudiendo a las sugerencias de TED salpimentándolas con la búsqueda de speakers o charlas concretas que, por un motivo u otro, traigan a primer plano algún personaje o tema. De momento, ya tengo pre-seleccionadas charlas para cubrir hasta el mes de Marzo.

Y, si todo va bien, el 30 de Diciembre de 2021 publicaré un post similar a este con más charlas.

Artículos de este blog relacionados

lunes, 28 de diciembre de 2020

Una rápida incursión en la autonomía y el libre albedrío de las máquinas y sus implicaciones éticas

Vamos a ser muy claros y directos en el inicio de este artículo para evitar desde el principio las fantasías y los malos entendidos: no, las máquinas no disponen de libre albedrío.

Es un tema en el que me gustaría profundizar dentro de un tiempo cuando haya investigado algo más el concepto e implicaciones del libre albedrío desde el punto de vista de la filosofía y las religiones. Aún así, y de forma preliminar, pero plenamente convencida, repito lo que acabo de decir: las máquinas no disponen de libre albedrío. No al menos las máquinas de que disponemos hoy en día. No, probablemente, las máquinas de que dispondremos en un futuro inmediato y quizá no tan inmediato. Tal vez nunca lo alcancen.

Y sin embargo las inteligencias artificiales y los robots más avanzados, incluyendo en ese concepto también a elementos como los vehículos autónomos o ciertos drones, exhiben una clara autonomía, es decir, son capaces de funcionar por sí solos sin necesidad de intervención humana y son incluso capaces de aprender y adaptar su comportamiento sin necesidad de esa intervención de personas. En esa capacidad reside una parte importante de su inteligencia, de su utilidad, y de su capacidad para asombrarnos y generarnos admiración.

Pero, ¿esa autonomía no es una forma de libre albedrío?

No. No lo es. En mi opinión no lo es, y creo que la mayoría de expertos o al menos conocedores de la inteligencia artificial y la robótica estarán de acuerdo conmigo y supongo que, con más motivo aún, filósofos, religiosos y otros humanistas estarán igualmente de acuerdo conmigo  

Libre albedrío implica conciencia, libertad y voluntad propia. Y los robots no tienen conciencia ni voluntad propia. 

¿Y libertad? 

Tampoco. 

En algunos de los cursos que imparto, y en algún artículo que he publicado en este mismo blog ya he hecho ver que los algoritmos de la inteligencia artificial, al menos los que yo conozco, al menos los más populares y sólo con alguna reserva en lo relativo a los algoritmos genéticos, son absolutamente deterministas. Deterministas quiere decir que ante las mismas entradas producen las mismas salidas. Sin duda. Sin opción a la sorpresa. Lo que ocurre es que los algoritmos de inteligencia artificial adaptan su algoritmo de funcionamiento, que es plenamente determinista, ajustando parámetros mediante un algoritmos de aprendizaje que también son plenamente deterministas. Deterministas pero dependientes, eso sí, de la experiencia concreta a que el algoritmo que aprende se ve sometido durante su entrenamiento y, por tanto, autónomos y en cierto sentido imprevisibles (sólo en cierto sentido).

Pero nuestras queridas máquinas inteligentes reciben esos algoritmos plenamente deterministas desde el exterior, desde las personas. Y no los interpretan, no los someten a crítica, no se los saltan. Simplemente los ejecutan. Y a la ejecución obediente de unos algoritmos deterministas que les son dados desde el exterior difícilmente la podremos calificar de libre albedrío, por muy inteligentes, flexibles y autónomos que sean (que lo son).

Saltando ahora a las implicaciones éticas que esto tiene, acudo al libro 'Oxford Handbook of Affective Computing' que hace una pequeña digresión ética y menciona a Enmanuel Kant, uno de los más grandes filósofos de la historia y uno de los de mayor peso en materia de ética, y nos recuerda que:

For Kant in particular, an agent cannot make an ethical choice unless it has that kind of freedom to begin with.

En efecto, para Kant un elemento imprescindible de la ética es la libertad, la capacidad de decisión, es decir, el libre albedrío. Y hemos dicho que las máquinas no lo tienen. La conclusión parece más que clara: las máquinas no pueden tener responsabilidad ética.

¿Quién entonces?

En la misma fuente, unas líneas más adelante cita un informe de EPSRC (Engineering and Physical Sciences Research Council), para el cual, la conclusión es muy clara:

So long as we build systems to do only a few things and specify when they should do which, it is hard to dispute [...] that attributing ethical responsibility to them simply clouds the issue: responsibility lies firmly with the builder.

O sea, según esto, la responsabilidad ética no está en la máquina, sino en quien la construye.

¿Y la responsabilidad legal?

En este aspecto hay debates muy ligados, por ejemplo, al vehículo autónomo. ¿El fabricante? ¿El dueño? ¿La administración? No está del todo claro.

En cualquier caso, no en la máquina, que es un ser inanimado, sin personalidad jurídica (aunque hay voces que sugieren la necesidad de esa personalidad) y sin libre albedrío.

El argumento básico creo que es bastante indudable. Los detalles de las consecuencias éticas y legales pueden traer consigo, lo traen de hecho, más debate.

Aquí lo dejo por ahora, pero seguro que vuelvo en algún momento a este tema del libre albedrío.


viernes, 18 de diciembre de 2020

Deep learning y visión artificial con Binford, Jagadeesh, Ruby, Lepika, Tisa y Nedumaan

'Modern deep learning and advanced computer vision' es una revisión amplia y de cierta profundidad de dos campos muy relacionados: por un lado el área de machine learning y en especial deep learning y, por otro, la visión artificial propiamente dicha. Y digo esto porque puede partecer un libro sobre visión artificial, y con esa idea realmente lo compré y leí, y que lo relativo al machine learning es un mero apoyo. Sin embargo, no es así del todo: lo cierto es que hay bastante tratamiento de machine learning y deep learning 'per se', con independencia de sus participación en el campo de la visión artificial. 

Se trata de un libro más bien extenso y de complejidad media-alta, aunque en este punto es algo variable, con secciones bastante complejas y otras, sin embargo, casi divulgativas. 

El libro se estructura en solo cinco capítulos aunque, eso sí, de bastante longitud cada uno:
  • 'Fundamentals of computer visión': Comienza con algunas ideas básicas como qué es la visión artificial y sus etapas en la formación de imágenes y en visión en niveles 1, 2 y 3. Luego revisa ideas de algoritmos mediante cinco casos de estudio para, a continuación, acometer una revisión de aplicaciones desde un punto de vista sectorial y, en concreto, comentando los sectores de distribución, automoción, salud, banca e industria. Y finaliza el capítulo revisando algunos campos relacionados con la visión artificial como son la inteligencia artificial, el machine learning, el procesamiento de lenguaje natural, el procesado de señal y la visión en robots.

  • 'Machine learning and computer vision': Un capítulo que, aunque en teoría relacionado con visión artificial, en realidad es prácticamente un repaso de la disciplina del machine learning. Comienza con conceptos de base empezando por explicar lo que es el propio machine learning, algunos de sus retos y dificultades, dónde se encuentran habitualmente aplicaciones de machine learning en nuestro día a día y su conexión con ideas como la inteligencia artificial, las redes neuronales o el aprendizaje estadístico. A continuación explica las tres tipos típicos de aprendizaje: supervisado, no supervisado y por refuerzo, para, finalmente, hacer un extenso recorrido por los principales algoritmos del machine learning con hasta quince familias de algoritmos que incluyen las regresión lineal y logística, árboles de decisión, análisis de componentes principales, support vector machines, etc.

  • 'Modern deep learning approaches': Manteniéndose todavía en conceptos casi independientes de la visión artificial, en este capítulo profundiza en el deep learning, explicando en qué consiste y su relación con la visión artificial abordando una amplia revisión de arquitecturas modernas que incluyen, por ejemplo GoogLeNet, AlexNet, ResNet o las redes de convolución basadas en regiones. Luego acomete una descripción de hasta diez algoritmos de deep learning muy recientes como las máquinas de Boltzman, las redes lambertianas o YOLO, en lo que es, probablemente, la parte más especializada y compleja del libro.

  • 'Recent trends in computer vision': Es una revisión, bastante más accesible y atractiva, de diferentes tendencias, doce, en visión artificial. Se habla, por ejemplo, de realidad aumentada, de reconstrucción 3D, de contestación viisual a preguntas, de la transferencia de aprendizaje, etc

  • 'Advanced computer vision techniques': Un último capítulo dedicado a las técnicas más avanzadas de visión artificial pero explicadas con un tono más divulgativo y entretenido que la parte central del libro y donde se habla, por ejemplo, de la generación de contenido viisual mediante redes adversarias, de analítica de vídeo, de espejos inteligentes, de la mezcla de lenguaje y visión, etc
'Modern deep learning and advanced computer vision' es un libro con mucho conocimiento e información, a ratos algo denso, a ratos entretenido, pero sin duda con una gran aportación de conceptos e ideas. 

No está, probablemente, al alcance de cualquier lector, pero para según qué perfiles, puede aportar una gran visión de conjunto y también conocimientos especializados de algunas áreas, especialmente las algorítmicas. 

Ficha técnica:

miércoles, 16 de diciembre de 2020

La inteligencia artificial y el realismo mágico

Realismo mágico: Movimiento literario hispanoamericano surgido a mediados del siglo XX que se caracteriza por la inclusión de elementos fantásticos en la narración, con lo que se pretende profundizar en la realidad a través de lo mágico que hay en ella.

Oxford Languages


Diríase que, en ocasiones, más ocasiones de las convenientes y casi razonables, el relato que se hace de la inteligencia artificial y la robótica tiene un algo de realismo mágico, una mezcla casi indistinguible de elementos reales y fantásticos pero narrados como si fuesen ciertos, tangibles, realidad pura y dura.

Abunda, por desgracia, el discurso que, intencionadamente o no, ignora la realidad de la inteligencia artificial y la robótica para comunicarla como una suerte de narración fantástica, ciencia-ficción o realismo mágico, bañada con frecuencia en distopía.

Nada tienen de malo la fantasía, la ciencia-ficción y mucho menos el realismo mágico. Por el realismo mágico han transitado  autores tan reputados como Gabriel García Márquez, Juan Rulfo, Gunter Grass o Haruki Murakami, por mencionar algunos, incluso no hispanoamericanos. Y en el realismo mágico parecen encuadrarse algunas de las obras de mi adorado paisano Alejandro Casona.

Amo la literatura casi tanto como la tecnología y la inteligencia artificial.

Pero cada una tiene su momento.

Si estás en una empresa, haciendo un plan de transformación digital, o de robotización, o de cualquier otra suerte de aplicación de tecnología cognitiva, por favor, estúdiala bien, sé consciente de sus posibilidades reales y actuales, de sus beneficios y sus riesgos, de sus costes y su eficiencia, y decide racional e informadamente en consecuencia. Hablamos de negocio. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Si eres un jurista o legislador, si te preocupan, por ejemplo, la privacidad de los datos, o la explicabilidad de los algoritmos, o si te traen de cabeza las posibles consecuencias en el empleo de la automatización o si, tal vez, eres de los que estudian la eventual fiscalidad sobre robots, por favor, preocúpate, antes de legislar nada, de entender en profundidad la naturaleza de aquello que legislas. Entiende con claridad y profundidad  el objeto de tu posible norma. Hablamos de leyes. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Si eres, quizá, un filósofo, o antropólogo o tienes un carácter humanista de alguna manera y te preocupan los aspectos éticos de la inteligencia artificial, por favor, antes de juzgar y lanzar teorías, antes de 'filosofar' o debatir 'en vacío', preocúpate de entender el fenómeno sobre el que debates, sobre su verdadera naturaleza, su verdadero alcance y sus verdaderas implicaciones. No moralices sobre leyendas.  Hablamos de ética y moral. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Y no pienses, ni por un momento, que resultan aburridos el conocimiento, el análisis y el rigor. Es interesante, motivador y casi inspirador el análisis profundo, el alcanzar conclusiones y certezas y el aplicarlas en la práctica para conseguir mejores resultados de negocio, mejores leyes o saludables recomendaciones éticas. Créeme, anida en todas esas actividades, no sólo dignidad y utilidad, sino también alegría, armonía e incluso belleza.

Pero si, simplemente, eres humano, y si ahora estás tal vez en tu casa, quizá de vacaciones o de fin de semana, o si estás a punto de echarte una siesta o quizá de irte a la cama tras un largo y duro día de trabajo... ahora sí, ahora es el momento de dejarse ir y permitir volar a la imaginación, ahora puede ser un excelente momento para la ciencia ficción, para la fantasía y para el realismo mágico. Relájate y disfruta.

¿Te recomiendo algo?

Lee, por ejemplo, el relato 'La máquina que ganó la guerra' de Isaac Asimov. Pocas veces habrás visto una ciencia-ficción más realista. O, mejor incluso, sumérgete en el teatro de Alejandro Casona. Lee 'La dama del alba' y verás lo que es el realismo mágico y entenderás, quizá, por qué todas las noches de San Juan, tuiteo la frase 'Esta noche todos los ríos del mundo llevan una gota del Jordán' y te garantizo, sobre todo, que encontraras belleza, una enorme belleza.


lunes, 14 de diciembre de 2020

¿Cómo es posible que los robots detecten las emociones humanas?

Quizá, uno de los aspectos más sorprendentes, más estimulantes y, en cierto sentido, más intimidantes de las robótica e inteligencia artificial actuales, es la creciente capacidad de los robots para captar, analizar y entender de alguna forma las emociones humanas y adaptar su comportamiento a esas emociones.

Parece increíble, pero no lo es. En estos momentos, y aunque todavía con camino para el perfeccionamiento, los robots son capaces de captar, medir y clasificar emociones humanas. 

¿Cómo es eso posible?


Condiciones para la percepción de la emoción


Podemos decir que para que una emoción humana pueda ser captada, medida, analizada y clasificada, es preciso que se den dos condiciones:


  • Manifestación física: es decir, que esas emociones, que tendemos a entender como un fenómeno interno del que sólo nosotros somos conscientes, deje muy por el contrario un rastro externo, una manifestación física perceptible desde el exterior.

  • Consistencia: Que esas manifestaciones físicas perceptibles de la emoción sigan patrones comunes, razonablemente consistentes, de forma que la misma emoción se manifieste de forma parecida y con arreglo a los mismos patrones, cuando se experimenta por la misma persona en diferentes momentos del tiempo, por diferentes personas e, incluso, en diferentes culturas.

Y lo cierto es que esas condiciones se dan en la realidad: las emociones humanas producen una manifestación física externa y esas manifestaciones físicas externas de la emoción se adhieren a patrones más o menos comunes y consistentes hasta el punto de permitir la percepción, medida y una cierta clasificación de esas emociones.

Para ello, los robots se confían a la evolución y avance de dos tipos de tecnologías que se corresponden con las dos condiciones. Por un lado a la "sensórica", la construcción de dispositivos capaces de captar y medir esas manifestaciones externas de la emoción. Y, por otro lado, la inteligencia artificial y el machine learning como mecanismo de reconocimiento y clasificación de patrones.

Pensando sobre todo en lo que tiene que ver con sensores ¿de qué posibilidades tecnológicas disponemos? 

En el  libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se dedica un capítulo al tema de la captación y medida de emociones y se nos propone una división entre medidas subjetivas y medidas objetivas. Las primeras, las subjetivas, en realidad no se ajustan al patrón que hemos descrito puesto que son las personas las que informan en los experimentos de su estado emocional. No obstante, revisamos ambas categorías.


Medidas subjetivas


En estas medidas son los propios individuos los que informan de sus emociones mediante encuestas o informes.

Las 18 emociones de PrEmo


En la obra citada se menciona, por ejemplo, PrEmo, una herramienta creada en 2000 y que consiste en 18 imágenes de tipo comic (ver imagen) que representan emociones: 9 son emociones positivas y 9 negativas.

Otra herramienta que aparece es SAM (Self-Assessment Manikin) creado en 1994  y que evalúa la activación ('arousal') o sea, la intensidad de la emoción, la valencia ('valence'), es decir, si es positiva o negativa,  y el dominio emocional ('emotional dominance'), o lo que es lo mismo, la sensación de control sobre el evento que provoca la emoción.

Y se mencionan otros como PANAS ('Positive and Negative Affect Schedule') o FACS ('Facial Actions Coding Systems'), éste último usado con expresiones faciales y que descompone las expresiones faciales en sus componentes de movimientos musculares.

Aunque estas herramientas se han usado y usan en el campo de la Interacción Personas-Robots (HRI, Human-Robot Interaction) parecen más orientadas, al menos esa es mi conclusión, a obtener datos etiquetados que sirvan posteriormente para el aprendizaje de los algoritmos que realmente van a identificar emociones en personas. 

Es decir, que este tipo de técnicas, aunque puedan tener otros muchos valores desde el punto de vista de la psicología, para el tema que nos ocupa, la detección de emociones por parte de los robots, creo que sirven como una herramienta para potenciar el lado de la inteligencia artificial en su fase de aprendizaje o entrenamiento.

Medidas objetivas


Las medidas anteriores, aparte de su subjetividad intrínseca, están sometidos al riesgo de la racionalización consciente, lo que puede ocultar mecanismos no explicitados. Existen sin embargo otro conjunto de técnicas (y tecnologías) para la medida y que tiene más que ver con el lado de la "sensórica".

Los autores de este capítulo, a saber, Hugo Alexandre Ferreira y Magda Saraiva, nos explican que en la formación de las emociones intervienen muchos elementos del sistema nervioso y así, y de forma simplificada, nos enumeran, dentro del sistema nervioso central, al cerebro, a los órganos de los sentidos y a la médula espinal. Y dentro del sistema nervioso periférico, al sistema somático, al sistema autónomo, al simpático y al parasimpático. En todos ellos las emociones tienen reflejo por lo que, potencialmente, en todos ellos podríamos intentar medir algún reflejo físico de las emociones.

También nos explican que, habitualmente, a la hora de medir emociones se consideran tres dimensiones que ya hemos citado (activación, valencia y dominio):
  • Activación ('arousal'): Indica el grado de alerta o excitación y se relaciona sobre todo con el sistema nervioso autónomo y con el sistema endocrino. Por tanto, se medirá en el propio cuerpo pero, afortunadamente, tiene otro tipo de manifestaciones en gesticulación facial. por ejemplo. Más concretamente, los autores mencionan esta lista de manifestaciones y posibles medidas o mecanismos de evaluación:

    • Diámetro de la pupila Donde la técnica a usar es el seguimiento ocular ('eye tracking')

    • Patrones de movimientos oculares medibles mediante 'eye tracking' y EOG (ElectroOculoGraphy)

    • Gesticulación facial que se procesa mediante reconocimiento facial o EMG (ElectroMioGraphy)

    • Habla mediante análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit, que incluye acelerómetro, giróscopo, magnetómetro y barómetro)

    • Ritmo y variabilidad de las pulsaciones usándose en este caso ECG (ElectroCardioGraphy), PPG (PhotoPletismography) y vídeo.

    • Ritmo y patrones de respiración mediante sensores de presión, EMG (ElectroMioGraphy), PPG (PhotoPletismography) y oximetría.

    • Presion arterial medida por medio de sensores de presión y PPG (PhotoPletismography).

    • Temperatura mediante termómetros, infrarrojos o cámaras térmicas.

    • Sudor usando GSR (Galvanic Skin Response) o EDA (ElectroDermal Activity).

    • Actividad cerebral quizá lo más fascinante y desafiante y a lo que se tiene cierto acceso mediante EEG (ElectroEncefalGraphy).

  • Valencia ('valence'): que indica de alguna manera el sentido de una emoción (si es positiva o negativa), algo que no se puede correlar de forma simple a la activación del sistema nervioso autónomo ya que la reacción puede ser muy parecida independientemente de la valencia. En su lugar, se acude a manifestaciones más externas como la gesticulación facial, movimientos y posturas del cuerpo o los gestos. También se han encontrado trazas de la valencia en elementos de la actividad cerebral. Las técnicas identificadas en este caso (algunas coincidentes con las vistas antes) son:

    • Gesticulación facial reconocimiento facial o EMG (ElectroMioGraphy).

    • Habla análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit).

    • Movimientos corporales captados mediante VIS/IR (VISible InfraRed) y cámaras de profundidad 3D.

    • Actividad cerebral mediante (EEG ElectroEncefalGraphy) y otras técnicas que se mencionan más abajo el apartado 'global')

  • Dominio ('dominance'): que se percibe con base en la actividad cerebral.

  • Global ('overall'): se usan técnicas basadas en neurofisiología y neuroimagen como fMRI (functional Magnetic Resonance Imaging), fNIRS (functional Near Infra-Red Spectroscopy), MEG (MagnetoEnceloGraphy), PET (Positron Emission Tomography), BCI (Brain-Computer Interface), TCS (Transcranial Current Stimulation) o TMS (Transcranial Magnetic Stimulation)

En conclusión


Se trata, como se puede observar, de una lista larga de técnicas / tecnologías, cada una con sus fundamentos físicos que habilitan la existencia de sensores y con su correlación con las emociones que es lo que, en el fondo, deseamos conocer. 

Probablemente valga la pena detenerse a conocer cada una de esas técnicas, y quizá en algún momento dedique espacio en este blog a comentar alguna de ellas, pero de momento el mensaje relevante es que si, nuestras emociones dejan trazas externas observables y medibles, que sí, esas manifestaciones físicas observables presentan patrones comunes y, por tanto, sí, los robots pueden detectar y de alguna forma medir y gestionar las emociones humanas.

lunes, 7 de diciembre de 2020

Pensamiento humano versus pensamiento robótico: la paradoja de Moravec

A veces parece que la Inteligencia Artificial se acerca a la humana. Los avances en inteligencia artificial y robótica son tan impresionantes, que a veces nos puede producir la impresión de que estamos a punto de conseguir una suerte de 'sorpaso' robótico a las personas, que puede que estemos cerca de la famosa singularidad en que las máquinas superarán en inteligencia a las personas. 

Y, sin embargo, las cosas no son así. Las máquinas, los robots, están mucho más lejos de lo que parece de alcanzar la inteligencia de una persona. No me atrevo a pronosticar si alguna vez se producirá ese 'sorpaso' ni, caso de que éste sea posible, cuándo puede acaecer. Lo que sí me parece meridianamente claro es que aún no estamos en ese punto, ni siquiera demasiado cerca.

Podríamos concentrar en dos ideas, esa lejanía de las capacidades cognitivas robóticas frente a las humanas. Y ello basándonos en dos conceptos antiguos de la inteligencia artificial.


Inteligencia artificial fuerte y débil



En primer lugar la famosa distinción entre inteligencia artificial fuerte y débil. La primera, la inteligencia artificial fuerte, la que podría suponer una verdadera superinteligencia capaz de superar a la humana, es una inteligencia de propósito general, capaz, como la humana, de tratar con todo tipo de problemas y situaciones, que lo mismo resuelve un problema matemático que cuenta un chiste, que es capaz de jugar al ajedrez, pero también de captar un doble sentido. La inteligencia artificial débil, por su parte, es una inteligencia artificial que se concentra en problemas concretos: la detección de objetos, el reconocimiento de personas, el entendimiento del lenguaje. etc. Y lo cierto es que todavía nos encontramos en el punto de la inteligencia artificial débil, la que resuelve esos problemas concretos.

Bien es cierto que esos problemas que resuelve la inteligencia artificial débil son problemas complejos y de mucho mérito. Es cierto que cada vez sabemos hacer más cosas mediante inteligencia artificial y que el desarrollo se produce de manera rápida. Es cierto, incluso, que cada vez integramos en un mismo robot o en un mismo software mayor número de capacidades inteligentes individuales. Los robots avanzados, por ejemplo, incluyen capacidades de procesamiento y generación de lenguaje natural, unidad a capacidades de visión artificial y también capacidades ligadas a la planificación y gestión del movimiento. Todo ello unido nos impresiona y parece acercarnos a esa visión del humanoide robótico completo. Pero, aunque los avances son innegables e impresionantes, esa especie de inteligencia artificial integrada no es aún, diría que ni de lejos, una inteligencia artificial realmente fuerte.


La paradoja de Moravec



Hans Moravec
Y algunas de las dificultades para conseguir esa inteligencia artificial fuerte parecen guardar relación con la ya muy antigua paradoja de Moravec, la segunda idea que quería mencionar. Y es que, según este famoso investigador de origen austriaco, se produce la paradoja de que cosas que para los humanos son muy complicadas, como por ejemplo, el juego del ajedrez o los cálculos matemáticos, son sencillas para las máquinas y nos superan en ello. Pero, sin embargo, cosas muy sencillas para los humanos, capacidades relacionadas sobre todo con la percepción y entendimiento del entorno, el contexto o el sentido común, resultan extraordinariamente complejas para las máquinas.

El origen de la paradoja parece residir en que esas capacidades cognitivas humanas a las que no concedemos importancia porque todos las poseemos, y creemos por que ello que son capacidades básicas y sencillas, no lo son en absoluto, sino que son extraordinariamente complejas, mas que esas otras que consideramos más avanzadas. El motivo parece ser de una especie de aprendizaje evolutivo.

Las capacidades más básicas, las que tienen que ver por ejemplo con la percepción del entorno y su entendimiento de manera global, son capacidades muy antiguas, que compartimos en buena medida con los animales, y que se han ido afianzando y perfeccionando a lo largo de milenios y milenios de evolución y selección natural pero que heredamos de manera natural al nacer. Nos vienen dadas, si, pero fruto de un aprendizaje y optimización milenarios. 

Por el contrario, las capacidades que consideramos más avanzadas, más intelectuales, más plenamente humanas, son relativamente recientes en el panorama evolutivo. Podemos decir que son más avanzadas, y en cierto sentido lo son, porque se apoyan en las anteriores, pero a nivel de su estructura interna, de su mecánica cognitiva, son en realidad más sencillas, más fáciles de entender y, sobre todo, y para lo que nos interesa, más fáciles de emular en una máquina inteligente. 


En conclusión



Deslumbrados por la capacidad de la inteligencia artificial e incluso de disciplinas de computación más sencillas, para emular y superar el razonamiento humano en esas capacidades aparentemente superiores, creemos hallarnos cerca de la inteligencia general, pero la dificultad para emular las capacidades cognitivas humanas básicas, las que nos parecen inferiores pero en realidad son mucho más sofisticadas, nos baja a la realidad y nos hace ser conscientes de que, a pesar de los innegables y fantásticos avances en robótica e inteligencia artificial, aún estamos lejos de ese 'sorpaso', y más aún de la famosa singularidad, caso que sea, siquiera, posible.


miércoles, 2 de diciembre de 2020

Tres componentes técnicos esenciales para el reconocimiento de la emoción en la voz

Muchos son los canales por los que los humanos expresamos las emociones. Y muchas son las fuentes de información (y los sensores y algoritmos) que un sistema artificial debe utilizar si quiere aprovechar esa riqueza expresiva para detectar emociones.

Uno de los canales que más utilizamos los humanos es la voz, la voz que expresa en lenguaje natural, mediante denotación y connotación, nuestros  pensamientos y emociones. Pero mucha información emocional acompaña a la fonética, al timbre, a la entonación.

La detección de la emoción con base en la voz, es un desafío tecnológico y algorítmico. En el libro libro 'The Oxford Handbook of Affective Computing'  se identifican tres componentes que se consideran fundamentales para un sistema de reconocimiento de emociones basado en voz. Son los siguientes:


  • Etiquetado de emociones: Definición e implementación de un sistema de etiquetado de emociones que proporcione la base para la computación. Al fin y al cabo, la detección de emociones suele reducirse a un problema de los denominados de clasificación en que, ante una entrada más o menos compleja, respondemos con una salida que es una etiqueta de categoría y, en este caso, buscamos las categorías que mejor estructuran las emociones.

  • Normalización: Transformación de las señales originales en una señales normalizadas que eliminen el efecto en la voz de otros aspectos que no tienen que ver con las emociones.

  • Algoritmos: Una algoritmia basada, como no es difícil de imaginar, en machine learning y que sea capaz de implementar un modelo que, ante una señal normalizada (componente 2) sea capaz de proporcionar una etiqueta (componente 1) que represente adecuadamente la emoción expresada.


Un esquema claro, aunque mucho más fácil de expresar que, evidentemente, de diseñar e implementar.


lunes, 30 de noviembre de 2020

La definición original de Computación Afectiva

Desde hace un tiempo, me estoy interesando en el campo de la computación afectiva ('affective computing') tanto por sí misma, como por su aplicación en el terreno de la relación entre personas y robots. Tengo muy buenas razones para ello, razones que en algún momento explicaré en este mismo blog, pero, en realidad, siempre me han cautivado las disciplinas eclécticas, los territorios intermedios entre disciplinas científicas o técnicas. Así que no es extraño mi interés en este cruce de caminos entre psicología e inteligencia artificial, principalmente.

Como cada vez que se inicia una disciplina, es bueno proporcionar una definición. Leyendo el libro 'The Oxford Handbook of Affective Computing' me encuentro  una definición propuesta inicialmente por la mismísima Rosalind Pickard, la creadora de esta disciplina de la computación afectiva. Se trata de la primera definición que ella propuso y que reza así:


computing that relates to, arises from, and deliberately influences emotion.


Como cabe esperar, las emociones están en el centro de la computación afectiva pero, eso sí, un estudiadas bajo un prisma que, aun recurriendo a lo psicológico, es esencialmente computacional u orientado hacia lo computacional.

Y, en cierto sentido, y de una forma muy compacta, Pickard esboza los dos aspectos fundamentales que van a dominar la computación afectiva: la detección de emociones ('arises from') y la simulación o generación de emociones con capacidad de influir en las personas ('influences')

Esta detección de emociones y esta simulación de emociones con capacidad de influencia, a su vez, en las emociones de los humanos, está en el núcleo de la muy cercana disciplina de la relación robots-humanos (Human Robot Interaction) y especialmente en el caso de los robots sociales.

Dejaré aquí este breve artículo, pero voy a seguir hablando en el futuro, y mucho y pronto, espero, de computación afectiva y de interacción humano-robot, así que esto no es sólo una definición primigenia, sino casi el inicio de un camino.


miércoles, 25 de noviembre de 2020

Una aplicación muy seria de la inteligencia artificial... aunque pueda parecer lo contrario

La inteligencia artificial parece preparada para alcanzar casi cualquier rincón de nuestra actividad. Con frecuencia sus capacidades nos producen sorpresa, asombro, admiración... pero en esta ocasión tengo que reconocer que no he podido reprimir también una sonrisa.

Y, sin embargo, el tema tiene todo el sentido del mundo y, en el fondo, es serio, muy serio, y un posible gran avance científico y técnico para la salud general.

¿De qué hablo?

Bueno, no sé si en la foto de portada se percibe suficientemente, pero estoy hablando del 'smart toilette' o inodoro inteligente.

¿Un inodoro inteligente?

Pues si, y que cuida de nuestra salud. En el fondo todos sabemos que algunos de los análisis más utilizados por los médicos para conocer nuestro estado de salud en multitud de aspectos son los de heces y orina, unas materias que, por más que por costumbre y aspectos culturales nos muevan al asco o a la risa, lo cierto es que son una riquísima fuente de información médica.

Y, si dejamos aparte de los médicos, qué hay en este mundo que esté mejor capacitado para el análisis de datos y la detección de patrones? Pues el machine learning, claro.

Así que, por sorprendente que pueda parecer, en el fondo la línea argumental es clara: apliquemos la inteligencia artificial para analizar la información de nuestras heces y orina, pero sin turnos ni extracciones sino directamente en origen y de manera continua. 

Precision Healt Smart Toilette
Según he descubierto en  el libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more humanPascal Bornet, Ian Barkin y Jochen Wirtz, ya existe algún modelo, alguno de una institución tan seria como Stanford, que incorpora a un inodoro las cámaras y sensores necesarios para la toma de datos y la algoritmia para su análisis y que denomina Precision Healt Smart Toilette. Nos cuentan que con la información obtenida se pueden detectar de manera proactiva y sin molestias problemas de riñón, infecciones, diabetes y cáncer. Casi nada.

Recuperados de la sorpresa, hay que reconocer que la idea es poderosa, prometedora y que demuestra los beneficios sociales que una inteligencia artificial bien orientada puede traer consigo. 


lunes, 23 de noviembre de 2020

Speech analytics, mucho más que lo que dices

Que nuestros datos están expuestos, lo sabemos. Nos puede preocupar más o menos, pero lo sabemos. Y que nuestra privacidad está amenazada, en el fondo también lo sabemos. Nos puede preocupar más o menos, pero también lo sabemos.

De todas formas, hay veces que esa amenaza se nos muestra de una forma más evidente, o quizá más sorprendente.

Y es que, en el fondo, inocentemente, pensamos que nuestros datos están expuestos de una forma tradicional, Que los datos que, debido a tramitaciones, compras o incluso indiscreciones volcamos en diferentes sistemas, pueden ser indebidamente utilizados o robados. Pero tendemos a pensar en datos que, de alguna forma, proporcionamos más o menos voluntariamente y de manera explícita.

De lo que quizá no somos tan conscientes es de la cantidad de información sobre nosotros mismos de la que dejamos rastro de forma inadvertida, sutil. Porque no son datos explícitos, no es una información que le hayamos proporcionado a una persona de manera clara. 

Son nuestros comportamientos, nuestras expresiones, nuestra forma de hablar, los textos informales que volcamos en redes sociales o en el móvil, nuestro buen o mal humor, nuestro estado de ánimo, nuestro tono de voz... Todo eso contiene información sobre nosotros mismos y, hoy en día, con el grado de avance del machine learning y la inteligencia artificial, es perfectamente viable realizar análisis concluyentes con base en esos datos tan aparentemente deslavazados, tan poco datos si se quiere.  

En su libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more human'  Pascal Bornet, Ian Barkin y Jochen Wirtz, hay un momento en que se detienen a hablar de las plataformas UIM (Unstructured Information Management), es decir, soluciones que se especializan, precisamente en la gestión de información no estructurada, de esos rastros, aparentemente tan poco informativos y que, sin embargo, tanto dicen sobre nosotros. 

Además, los autores hablan de la combinación de estos sistemas con el análisis de sentimiento, una aplicación  ya muy avanzada de la inteligencia artificial y que complementa con una visión sobre actitudes, opiniones y sentimientos la información que aportan los IUM.

Combinando ambas piezas en un Contact Center tendríamos lo que denominan el Speech Analytics en que se puede obtener todo tipo de información a partir de las conversaciones grabadas que se producen con un centro de atención al cliente.

¿Se da cuenta el lector?

Uno llama a un centro de atención, quizá por una duda, probablemente por algún tipo de queja, y la conversación queda grabada y puede ser analizada no sólo desde el punto de vista de la denotación, lo que explícitamente se ha dicho, sino también de las actitudes y sentimientos que se derivan de la forma de expresarse o el tono de voz, por ejemplo.

Definitivamente, nuestros datos  están expuestos. Y no sólo los datos, casi, casi, nuestro estado de ánimo y hasta nuestra personalidad.

No sé si nos importa, pero conviene que lo tengamos en cuenta.

viernes, 20 de noviembre de 2020

Verdades y mitos sobre la Inteligencia Artificial con Richard Benjamins e Idoia Salazar

'El mito del algoritmo' es una obra divulgativa, que no superficial, que busca mostrar lo que hay de cierto y de mito en el mundo de la inteligencia artificial y aportar, además, una propuesta ética a nuestro uso de máquinas y algoritmos, escrita por dos especialistas en ambos aspectos la inteligencia artificial como tecnología y la ética aplicada a datos y algoritmos. 

La obra, además, se salpica con las opiniones de hasta veinticinco reconocidos expertos que aportan unas píldoras de criterio y opinión con respecto a los temas tratados. 

El libro comienza con una pequeña introducción para centrar el objetivo. A continuación, el contenido principlal del análisis se estreuctura en ocho capítulos, cada uno de ellos dedicado a una temática especiífica.
  • '1. Máquinas mentirosas: ' Se ocupa de la toma de decisiones por parte de las máquinas y, al hilo de esta cuestión, aborda el problema de los sesgos en los algoritmos y de la necesidad de la explicabilidad de los mismos, finalizando con un breve repaso de la situación en cuanto a códigos éticos, cuáles existen y en qué punto están. Por el camino explica de forma sencilla algunas ideas subyacentes a los algoritmos cómo los tipos de aprendizaje usados hoy en día en machine learning.

  • '2. Un mundo transparente: ' Se centra en el problema de la privacidad, explicando cómo vamos dejando nuestra huella digital y también malos usos que se pueden hacer de esa huella como el caso famoso de Cambridge Analytica. Se explican algunas protecciones como la aportada por el GDPR. También se trata el filtrado y la selección de noticias e informaciones por parte de las grandes tecnológicas en plataformas sociales y cómo puede afectar a nuestro criterio o percepción de la realidad. Y se cierra con una luz de esperanza hablando de modelos de negocio responsables.

  • '3. Guerra de las máquinas: ' Habla del uso de máquinas y algoritmos con fines de ataque, incluyendo armas letales autónomas, las 'falke news' o el hacking. Se explica cómo las máquinas realmente no tienen bondad o maldad sino que depende del uso que hagamos de ellas y se finaliza con una propuesta de responder al uso malicioso de la tecnología con otra tecnología que pueda contrarrestarla.

  • '4. Robots 1 / Humanidad, 0: ' Un capítulo en que se comparan las capacidades de las máquinas y algoritmos frente a las personas analizando casos en que las primeras son superiores. Así, se repasan algunos hitos relevantes en que las máquinas superaron a los humanos como los famosos casos de Deep Blue, AlplhaZero, AlphaGo, Libratus o IBM debater. Luego, de una forma algo más genérica, se revisan campos donde las máquinas podrían llegar a tener mucho peso como son el diagnóstico médico, abogacía y judicatura, redacción de noticias y textos literarios o incluso el ejercicio como jefes. Se finaliza el capítulo con una apuesta por la simbiosis, por la actuación conjunta de personas y máquinas en campos como educación, comercio, finanzas, periodismo, transporte, salud, etc

  • '5. Datos e IA, ¡al rescate!: ' En este caso se aborda la explotación de los datos como forma de prevenir o paliar todo tipo de desastres naturales. Así, se repasan las posibilidades frente a inundaciones, incendios, cambio climático, terremotos, huracanes, eruciones volcánicas, pobreza o hambrunas. Luego se explica el uso responsable de la Inteligencia Artificial en las cuatro fases de un ciclo que incluye prevención, preparación, respuesta y recuperación. Se dedica un apartado a revisar los aspectos de prvivacidad y confianza implicados en el uso de esos datos y se dedica un amplio espacio al uso de datos e inteligencia artificial en el caso concreto del COVID-19.

  • '6. Despedido por un robot: ' Aborda el impacto en el mundo laboral. Se revisan brevemente algunas tecnologías que pueden eliminar trabajo humano y se revisa el modelo propuesto por Lee y Kai-Fu sobre el riesgo de sustitución de trabajadores por máquinas. Luego se analizan algunos escenarios relacionados con una eventual pérdida de empleo a manos de las máquinas y se finaliza revisando algunas tendencias o ideas emergentes como la renta básica universal o la gig economy.

  • '7. Mi novia/o es un robot: ' Se adentra en el aspecto quizá más humano y que sin embargo tiene su reflejo en las máquinas: las emociones y sentimientos. Se incluye un breve repaso histórico sobre algunos mitos relacionados con animar a máquinas que ya se encuentran en Egipto y Grecia o el mito del gólem. Se revisan conceptos como el test de Turing o el valle inquietante y se entra también en la temática de la creatividad de las máquinas. Se revisa la posibilidad de uso de robots para compabitr la soledad y cómo se pueden simular sentimientos en las máquinas. Incluso se toca al final el tema de la conciencia.

  • '8. El día en que llegó la singularidad tecnológica: ' en que se aborda la posibilidad, no ya de que las máquinas superen a los humanos, sino el hecho mismo de la consecución de un inteligencia artificial general y la eventual toma de control por las máquinas. Se deja claro que en realidad hoy en día no estamos en ese escenario pero sí se aventuran algunas posibilidades de futuro en materia de decisiones autónomas, privacidad o relación máquinas-personas y se bosquejan algunas tecnologías que podrían acelerar el futuro como son la computación cuántica o el uso del ADN para el almacenamiento de información.
Finaliza con un epílogo completamente diferente 'Un cuento sobre inteligencia artificial', una narración de ciencia-ficción con una máquina, Sybil, como protagonista. 

'El mito del algoritmo' es un libro muy interesante, que de una forma sencilla nos va descubriendo todas las implicaciones, positivas y negativas, que trae consigo la inteligencia artificial. Un recorrido que, además, se realiza con un doble empeño. Por un lado, separar el grano de la paja, indicando qué hay de cierto y qué de fantasía en lo que habitualmente se dice y escribe sobre inteligencia artificial. Por otro, aportar una visión ética y responsable sobre el uso de estas tecnologías. 

Un libro, por ese doble empeño, muy valioso y oportuno y un libro que pueden entender y disfrutar todo tipo de públicos, desde los que ya conocen el campo de la inteligencia artificial desde un punto de vista técnico pero quieren entender sus implicaciones éticas y sociales, hasta los que, simplemente, tienen sicnera curiosidad por comprender lo que es y lo que trae consigo la inteligencia artificial. 

Sin duda, muy recomendable. 

Richard Benjamins

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Richard Benjamins
Entre las 100 personas más influyentes en negocios data-driven, según DataIQ 100. Anteriormente Group Chief Data Officer en AXA (seguros). Más de 10 años de experiencia en Telefónica en diferentes cargos de gestión relacionados con Big Data y Analítica. Co-fundador de startups y ONGs. Speaker frecuente en eventos sobre Big Data e Inteligencia Artificial. Miembro del grupo de expertos en compartición de datos de la Comisión Europea. Autor de 'El mito del algoritmo'.

Su pasión es la creación de valor a partir de los datos. Valor comercial pero también valor para la sociedad. Es el fundador del departamento de Telefónica Big Data for Social Good. Actualmente trabaja en cómo hacer los datos y la Inteligencia Artificial más sostenibles desde una perspectiva tanto de negocio como social y ética. Es asesor estratégico de Focus360 y de BigML, una startup que pone el Machine Learning en manos de la gente de negocio.

Antes de unirse a Telefónica, fue director y miembro del consejo en ISOCO, de la cual fue co-fundador en 1999. Con base en su trabajo ISOCO recibió el National Award for Computer Science.

Benjamins ha ocupado puestos en la Universidad Politécnica de Madrid, la Universidad de Amsterdam, la Universidad de Sao Paulo en Brasil, la Universidad de París-Sur en Francia y el Instituto español para la Investigación de la Inteligencia Artificial en Barcelona.

Es co-fundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y uno de los miembros fundadores de la Incubadora Europea para startups da Datos Abiertos (http://opendataincubator.eu/).

Ha publicado más de cien artículos científicos sobre Inteligencia Artificial, Ética e Inteligencia Artificial, sistemas basados en conocimiento, y web semántica. Ha co-presidido numerosos talleres y conferencias internacionales. Es asesor de varias startups y proyectos internacionales de investigación. Fue presidente de la conferencia K-CAP 2013 y co-presidente de la sección industrial en ISWC 2014.

Es miembro del comité editorial de IEEE Intelligent Systems y de la task force de GSMA sobre Big Data para el Bien Social.

El doctor Benjamins recibió en 1993 su doctorado en Ciencias Cognitivas / Inteligencia Artificial por la Universidad de Amsterdam.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vrbenjamins.

Idoia Salazar

(Fuente: Ligera elaboración propia de su ficha en Foro de foros)

Idoia Salazar
Idoia Salazar es presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Co-directora del área de Ética y Responsabilidad de OdiseIA. Doctora en Periodismo. Profesora de la Universidad San Pablo CEU, Madrid.

Especializada en Ética de la Inteligencia Artificial. Investigador Principal del Grupo de Investigación SIMPAIR (Impacto Social de la Inteligencia Artificial y la Robótica). Autora de los libros ‘La revolución de los robots: cómo la inteligencia artificial y la robótica afectan a nuestro futuro’ y ‘Las profundidades de Internet: Accede a la información que los buscadores no encuentran y descubre el futuro inteligente de la Red’ y co-autora de 'El mito del algoritmo'. Es también autora de artículos científicos y divulgativos.

Miembro del comité de expertos del Seminario Permanente de Huella Digital de la Fundación Pablo VI. Tratando de contribuir a un mundo mejor y más justo desde el uso responsable y ético del Big Data y la Inteligencia Artificial.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @idoiasalazar.

Ficha técnica:

lunes, 16 de noviembre de 2020

¿Por qué debería un robot manejar emociones?

En los últimos tiempos he estado investigando sobre robótica social y computación afectiva, un área de estudio y aplicación apasionante tanto desde un punto de vista intelectual (es un área donde se citan la ingeniería, la inteligencia artificial, la psicología y mucho más) como desde el punto de vista de las posibilidades de aplicación que abre y también, hay que reconocerlo, algunos retos éticos que plantea.

Pero a lo mejor, lo primero que habría que hacer es , simplemente, plantearse si tiene sentido, siquiera, el intentar que los robots detecten y expresen emociones.

En el libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se cita a Rosalind Pickard, la 'madre' de la computación afectiva, y por tanto alguien con autoridad en la materia, y se mencionan cuatro motivos:


  • La presencia de emociones en el robot facilita la comunicación con el usuario (una comunicación, evidentemente emocional).

  • La necesidad de desarrollar aplicaciones que controlan información emocional

  • El interés creciente en el desarrollo de robots que presenten habilidades sociales y emocionales

  • La presencia de emociones hace que la experiencia para el usuario sea más interesante y menos frustrante.

La verdad es que creo que el mero enunciado se me queda un poco corto y creo que precisaría de un poco más de explicación y detalle. Sin embargo, me quedo con dos ideas básicas. 

La primera que la capacidad de gestionar emociones por parte de un robot mejora la relación con los usuarios, con los humanos, y eso, en el fondo, es el objetivo de cualquier interfaz de usuario, desde las más sencillas en un sistema de ventanas o incluso de línea de comandos, hasta las más sofisticadas como pueden ser estas interfaces humano-robot. 

La segunda, con la que ya contaba, es que esa capacidad de gestión emocional abre la puerta a muchísimas aplicaciones de todo tipo: industrial, profesional, en el hogar y en el ámbito social.

Es cierto que con la gestión de las emociones entramos en terreno delicado, un terreno que precisa de una alta dosis de prudencia y de ética. Estoy seguro que de esto último voy a tener oportunidad de hablar largo y tendido próximamente.


viernes, 13 de noviembre de 2020

Estudios sobre robótica social editados por Oliver Korn

'Social robots: technological, societal and ethical aspects of human-robot interaction', aunque presentado en formato libro, es más bien una recopilación de artículos científicos en el campo de los robots sociales y la interacción humano-robot, probablemente un intento de recopilar conocimiento en una disciplina no completamente madura y donde probablemente aún no se puede encontrar un claro y ordenado 'corpus de doctrina'. 

Se nos presentan, en concreto, once estudios que constituye cada uno un capítulo del libro más un par de capítulo iniciales algo más introductorios y teóricos:
  • '1. A Short History of the Perception of Robots and Automation from Antiquity to Modern Times:' Hace un breve recorrido en tres fases (antiguedad, edad media, modernindad) de las diferentes visiones e implmentaciones de robots y autómatas de diversos tipos.

  • '2. Designing Social Robots at Scales Beyond the Humanoid:' Un capítulo de corte más bien teórico dedicado a los robots sociales no humanoides. un término al que se refiere entornos computacionales ubicuos. Se describen sus características funcionales, formales y estéticas y luego se pasa revista a aspectos un tanto particulares como el minimalismo, el uso de alta tecnología, la biomímesis y las visiones posmodernistas y clasicistas en este tipo de entornos robóticos. Finaliza con una breve mirada hacia el futuro de este tipo de entornos.

  • ':3. A Study on Robot-Initiated Interaction; Toward Virtual Social behavior:' Presenta un estudio específico sobre el inicio de la interacción por parte del robot. Tras un repaso de la literatura existente sobre el tema, explica brevemente el sistema utilizado y la idea detrás del experimento. A continuación retorna de nuevo a un trasfondo teórico del campo de la proxémica y cómo medir las reacciones humanas. Y al final, nos presenta ya al robot utilizado, MiRob, y los dos experiementos realizados y sus resultados.

  • ':4. The Role of Gesture in Social Telepresence Robots-A Scenario of Distant Collaborative Problem Solving:' Otro artículo en que ahora se estudian los avatares y la teleoperación de robots y el papel de los gestos en ese tipo de interacción. Primero revisa trabajo relacionado en robots de servicio y robots sociales así como en avatares y robots teleoperados. Luego explica el papel de los gestos en la interacción entre personas y robots. Finalmente, presenta algunos escenarios prácticos con resultados.

  • '5- Unobstrusive Vital Data Recognition by Robots to Enhance Natural Human-Robot Communication:' Otro estudio, en este caso, sobre el muy interesante campo de cómo los robots pueden obtener información sobre las personas con que interactuan y con ello enriquecer la interacción. Sigue el mismo patrón que los artículos anteriores revisando el trabajo previo sobre la materia. Explica a un nivel ligeramente técnico la parte sensora, la manera de obtener información y los algoritmos de detección. Y finalmente, y de forma muy breve, presenta un estudio basado en una cámara portada por un robot.

  • '6. Interacting with Collaborative Robots- A Study on Attitudes and Acceptance in Industrial Contexts:' El estudio que se presenta en este caso se centra en los entornos industriales y en la colaboración entre humanos y robots en esos ambientes. Lo que se analizan son las actitudes de las personas hacia los robots y cómo influye el conocimiento previo que sobre robots tenga la persona. Sigue el esquema habitual, explicndo primero los trabajos previos sobre la materia para luego explicar el estudio realizado, sus métodos y resultados.

  • '7. A Social Robot in a Shopping Mall: Studies on Acceptance and Stakeholder Expectations:' Salimos del entorno industrial y ahora pasamos a un centro comercial hablando del proyecto MuMMER que analiza expectativas y preocupaciones de los responsables de las tiendas y del propio centro a propósito del uso de robots sociales en su entorno. El esquema ya lo conocemos: primero se resumen los estudios previos relacionados y luego se explican varios estudios realizados, un taller con clientes, una encuesta de aceptación también a clientes y un análisis de la perspectiva de los gestores.

  • '8. Multi-party Interaction in Public Spaces: Cross Cultural Variations in Parental and Nonparental Response to Robots: Adaptive Strategies:' Un estudio que analiza la interacción de un robot con dos partes completamente diferenciadas, en este caso padres e hijos, en que pueden tener visiones en conflicto y es precisa una cierta negociación. Se exponen dos estudios, uno realizado en campo en un centro comercial y luego una encuesta online subsecuente para analizar elementos cross-culturales. Como siempre, primero se exponen los resultados de trabajos previos y luego los métodos y resultados de los experimentos realizados.

  • '9. Cross-Collaborative Approach to Socially-Assistive Robotics: A Case Study of Humanoid Robots in a Therapeutic Intervention for Autistic Children:' Este artículo trata de un caso delicado, la acción terapéutica con niños autistas usando robots humanoides, en concreto, usando el robot KASPAR, un robot con aspecto de niño. Como ya nos resulta familiar, primero de revisa la literatura científica previa, luego se presenta al robot KASPAR para luego detallar los experimntos y estudios realizados y sus resultados, uno relacionado con habilidades de comunicación y otro con el foco y la atención.

  • '10. Social Robots and Human Touch in Care: The Perceived Usefulness of Robot Assitance Among Healthcare Professionals:' Analiza un aspecto muy específico: el tacto, es decir, la situaciones en que es necesario que haya contacto físico entre robot y persona y, en concreto, centrado en el caso de asistencia sanitaria. En este caso lo que se presenta es, básicamente, una encuesta a profesionales de enfermería. En la parte de análisis de trabajo y conocimiento previo se hace énfasis sobre todo en la importancia del contacto en el cuidado de personas mayores. En la parte final se explican los resultados obtenidos en la encuesta.

  • '11. Attitudes of Professionals Toward the Need for Assistive and Social Robots in the Healthcare Sector:' Continuamos en el sector sanitario y asistencial y ahora lo que se analiza es la actitud de los profesionales de la salud hacia los robots asistenciales. Se presentan en ese sentido tres estudios basados en encuestas y revisión de literatura. Primero hace una bastante extensa descripción de los robots sociales y luego se centra en los experimentos contando materiales y métodos, diseño de las encuestas y análisis de resultados obtenidos.

  • '12. Evaluating the Sense of Safety and Security in Human-Robot Interaction with Older People:' Analiza los sentimientos de seguridad en el caso de uso de robots en la asistencia a personas mayores hablando de la seguridad desde un punto de vista de daño no intencionado ('safety') o intencionado ('security'). Se revisan primero los concretos relacionados con este sentimiento de seguridad y luego se presentan unos experimentos basados en vídeos usando el robot Pepper en cuatro escenarios diferentes en que se muestran a los participantes los vídeos y luego se les realiza un cuestionario.

  • '13. AMIGO - A Socially Assistive Robot for Coaching Multimodal Training of Persons with Dementia:' y finaliza con un estudio dentro del proyecto europeo AMIGO en que se emplean robots para el entrenamiento de personas con demencia. Sigue el esquema hanbitual, presentano trabajos previos relacionado sobre robots sociales asistenciales y en concreto en el ámbito de la salud y ayuda en la demencia. A continuación se explica el sistema AMIGO desde un punto de vista ligeramente técnico y se finaliza con los primeros resultados obtenidos en campo y en estudios cualitativos.
La temática de este libro , particularmente, me resulta fascinante pero, es cierto que, al tratarse de una colección de artículos científicos, se observa en su redacción y estructuración una cierta rigidez, un cierto encorsetamiento que hace la lectura menos agradable de lo que podría ser ante el atracivo de los temas tratados. Para mi gusto particular, más que los experimentos concretos que se cuentan, en general centrados en temas muy puntuales, me han interesado las introducciones previas, los conocimientos, trabajos y conceptos que justifican los estudios y experimentos porque de ahí sí que se puede extraer información estructural y muy interesante. Me ha gustado tambiñen, ver los robots concretos que se han utilizado en los experimentos, de los cuales en muchos casos se aportan fotografías. 

En conjunto, a pesar de ese cierto encorsetamiento, la lectura de 'Social robots: technological, societal and ethical aspects of human-robot interaction' me ha resultado interesante, útil y muy informativa. 

Oliver Korn

(Fuente: Traducción y ligera elaboración propia de la biografía en su blog)

Oliver Korn
Oliver Korn es profesor de Human Computer Interaction (HCI) y director del Affective & Cognitive Institute en la Universidad de Offenburg en Alemania. También es fundador y director de investigación de la compañía de software KORION GmbH. Korn es director de proyecto certificado (IHK) y miembro senior de la Association for Computing Machinery (ACM).

Obtuvo su doctorado en ciencias de la computación en la SimTech Excellence Cluster en el Institute for Visualization and Interactive Systems (VIS) Institute for Visualization and Interactive Systems (VIS) de la Universidad de Stuttgart.

Sus principales áreas de interés son:
  • Reconocimiento de emociones influencia (affective computing)
  • Juegos y gamificación
  • Tecnologías asistenciales
La visión es enriquecer nuestros entornos mediante interfaces intuitivas y sistemas asistenciales intuitivos así como juegos motivadores que se adaptan a los usuarios y al contexto.

Desde 2001 ha trabajado en proyectos enfocados a interacción hombre máquina, sistemas asistenciales, juegos y simulaciones. Trabajó en el Fraunhofer Institute for Industrial Engineering (IAO), la Stuttgart Media University y estableció el laboratorio “HCI & Interactive Wizards” en la University of Applied Sciences Esslingen. En 2003 co-fundó el spin-off de Fraunhofer Korion GmbH, una compañía de simulación y juegos. Hasta Junio de 2016 fue el CEO y estuvo a cargo de varios proyectos de investigación nacionales. Todavía supervisa y dirige las actividades de investigación de Korion.

Puedes saber más del autor visitando su su blog.

Ficha técnica: