lunes, 25 de enero de 2021

Un homenaje al álgebra lineal

Parece raro, lo admito. Seguramente es raro, de hecho, pero quisiera rendir una especie de homenaje al álgebra lineal.

Aunque álgebra, e incluso álgebra lineal, se estudia en el colegio, en el bachillerato (al menos ese fue mi caso), lo cierto que es que ese nombre de álgebra lineal creo que lo conocí en mi primer año universitario en la carrera de ingeniería industrial.

El álgebra lineal era una de las asignaturas más temidas en ese primer año que, en muchas ocasiones, tenía casi un carácter eliminatorio y de filtrado, donde la exigencia de aprobar al menos una asignatura acababa suponiendo el dejar en la cuneta a, no sé, pero probablemente más de la mitad de los alumnos que iniciaban la carrera. Y el álgebra lineal era mu temida y sólo era superada, en cuanto a temor reverencial se refiere, por la otra asignatura del campo de las matemáticas: el cálculo infinitesimal.

Y, sin embargo, debo decir que el álgebra me encandiló. Me gustó mucho incluso en el primer trimestre cuando estudiábamos cosas en apariencia tan poco prácticas como las leyes de composición o las estructuras de grupo, anillo y cosas así. Me gustó aún más cuando en el segundo trimestre abordamos matrices, determinantes y otra serie de cosas que no recuerdo bien, algunas de las cuales conocía del bachillerato y otras no. Y me alucinó del todo en el último trimestre cuando ya se traslada a ámbitos como los espacios euclídeos, la geometría, las transformaciones y el movimiento.

Para mi hacer problemas de álgebra, incluso estudiar la teoría, era una especie de juego, muy divertido.

Tanto me gustó la asignatura que, aunque sin duda era prematuro pensar en ello, hasta llegué a plantearme que, quizá, lo que me gustase hacer en el futuro era impartir clases de álgebra lineal en la universidad. Esa idea me abandonó, por suerte diría, a lo largo de la carrera, pero da cuenta de hasta qué punto me gustó la materia.

No es fácil explicar por qué algo nos gusta. Si intento racionalizar qué me cautivaba de la asignatura podría aventurar qué, quizá su extraordinario orden, exactitud y rigor o cómo algo en apariencia tan abstracto acaba representando fenómenos reales tan bonitos como la geometría o el movimiento de objetos.

Han pasado muchos años de aquello y en mi devenir profesional no me ha sido muy necesario el uso del álgebra, al menos no en dosis relevantes por lo que, inevitablemente, he olvidado muchos conceptos y he perdido habilidad con operaciones que antes realizaba con suma facilidad. Pero aún recuerdo con cierta nostalgia, y con ganas de recuperarlos algún día, mis apuntes de primero de carrera que duermen, abandonados y probablemente húmedos y quizá mohosos en el fondo de un sótano de difícil acceso.

Pero parece que, aunque quizá con no tanta fuerza, el álgebra vuelve a mi y lo hacen en ámbitos en los que estoy profundizando e investigando ahora mismo.

Me aparece, por ejemplo, en las lecturas y cursos que estoy realizando sobre machine learning ya que en estos algoritmos se utilizan en abundancia estructuras como los vectores, las matrices y los tensores y las operaciones algebráicas entre ellos.

Y me aparece en lecturas sobre robótica, ya que la posición y movimiento de los robots se describen y calcula en buena medida, mediante vectores y matrices y operaciones algebráicas entre ellos.

Y también la menciono,. cierto que de pasada, cuando explico algún concepto algorítmo relacionados con la realidad virtual y aumentada.

Ha sido como reencontrar a una vieja y querida amiga. 

Tan presente comienza a estar el álgebra en mis investigaciones actuales, y tan buenos recuerdos me trae, que estoy considerando cursar algún MOOC o similar sobre álgebra lineal, o comprar y leer algún texto de nivel universitario sobre la materia para ponerme al día y, sobre todo, para recordar y disfrutar. No sé si al final lo hare, porque muchos son los temas en que quiero trabajar y avanzar y, quizá, desde un punto de vista práctico, para mis circunstancias y objetivos actuales, el álgebra no sea tan crítica.

Pero el sólo hecho de que me lo plantee ya da una idea de su interés y de cuánto me gusta.

Para aquellos estudiantes de bachillerato o universidad que estén recibiendo formación sobre álgebra, les animo a que la disfruten y aprecien, y que sepan que, aunque pueda parecer abstracta, exhibe una belleza extraordinaria y, sobre todo, tiene aplicación absolutamente real en temas tan avanzados y actuales, en disciplinas tan 'sexys', como el machine learning o la robótica.

Y, por mi parte, y a la espera de decidir si la vuelvo a estudiar o no con fuerza, sí al menos rendir este homenaje a mi asignatura favorita del inicio de la carrera.

Damas y caballeros: les pido un aplauso para el álgebra lineal.


viernes, 22 de enero de 2021

Diseño emotivo de la interacción con robots con Hande Ayanoglu y Emilia Duarte

'Emotional design in Human-Robot Interaction: Theory, methods and applications' es un libro científico-técnico que cubre el campo de los robots sociales y la interacción humano-robot pero con especial foco en lo relativo a la gestión de las emociones y al diseño de los robots para esa gestión. 

Aunque se trata de un libro con varios autores, tienen mucho peso las dos autoras que figuran como editoras y que participan en varios de los capítulos lo que proporciona mayor coherencia y continuidad en la línea discursiva del libro. 

El contenido se estructura en once capítulos agrupados en cinco partes, de irregular extensión:
  • 'PART I: UNDERSTANDING THE CONTEXT': Una primera parte que centra el campo de estudio y el propio libro y que se compone de dos capítulos:
    • '1. Introduction': Un breve capítulo introductorio que, además de aportar un breve currículum de las editoras y autoras principales, centra el campo de la robótica social y de Human-Robot Interaction.

    • '2. A Motivational Case Study in Social Robotics': Explica el proyecto MOnarch que explora la formación de relaciones de robots con niños en el contexto de un hospital oncológico. Se habla del proceso de diseño incluyendo las fases conceptual, producción y despliegue. Además se aportan detalles de la tecnología empleada y se aportan resultados.

  • 'PART II: FUNDAMENTALS': La parte principal del libro desde el punto de vista conceptual e integrada por cinco capítulos:
    • '3. Human-Robot Interaction': Aporta algunos conceptos de base en el campo de la relación robots-personas. Así, se explica lo que son los robots sociales y la disciplina de Human-Robot Interaction y luego se revisan algunos factores relevantes en esa interacción como son el valle inquietante ('uncanny valley'), la proxémica, la empatía, la confianza, la implicación y el diseño emocional.

    • '4. Emotions and Emotions Design': Un capítulo importante desde el punto de vista conceptual donde se explican el concepto de emoción y otros relacionados como el del sentimiento o el estado de ánimo y las diferentes teorías fundamentalmente psicológicas relativas a la emoción para finalizar con algunas ideas respecto al diseño teniendo en cuenta emociones.

    • '5. On The Origins and Basic Aspects of User-Centered Design and User Experience': Un capítulo en que estudia el diseño de interacciones de personas con máquinas no ceñida exclusivamente al campo de los robots y HRI. Se hace un detallado recorrido histórico sobre las formas de hacer esas interfaces hombre-máquina y se apuntan algunas de las últimas teorías y tendencias.

    • '6. "I Love You" said the robot: Boundaries of the Use of Emotions in Human-Robot Interaction': Revisa algunas implicaciones éticas, legales y sociales del uso de emociones en robots. Se revisa el uso de emociones en los contextos terapéutico y doméstico e incluso los denominados 'griefbots', es decir, robots que asumen la personalidad de una persona fallecida para luego hacer un largo repaso de las implicaciones.

    • '7. Ethics in Human-Robot Interaction': Un capítulo que insinúa, más que tratar realmente, los aspectos éticos en el campo de Human-Robot Interaction y robótica social.

  • 'PART III: ROBOT DESIGN PROCESS': Una parte orientada a la praxis del diseño emocional y la interacción robots-personas y conformada por dos capítulos:
    • 'Emotional Design and Human-Robot Interaction': Aborda aspectos del diseño emocional como la apariencia, la expresión de emociones (facial, vocal y movimiento) y la distancia física de robots y personas. Además se aporta una amplia revisión de trabajos relacionados.

    • 'Subjective and Objective Measures': Cubre un tema complicado; la medida de la emoción, Se explican los modelos tanto subjetivos (es una persona la que indica la emoción) como los objetivos (mediante medida de diferentes variables físicas o fisiológicas relacionadas con la emoción).


  • 'PART IV: CASE STUDY': Una parte de un solo capítulo de carácter práctico:
    • '10. Human-Robot Interaction: Exploring the Ability to Express Emotions by a Social Robot': Describe un caso de estudio concreto: la expresión de emociones por parte de un robot por diferentes mecanismos y hasta qué punto los humanos reconocen esa emoción. Un capítulo interesante porque hace visualizar la forma real de trabajar, en este caso usando el mismo robot del proyecto MONarch descrito en el segundo capítulo.

  • 'PART V: FUTURE DEVELOPMENTS': De nuevo, una parte de un solo capítulo, en esta ocasión centrado en la inteligencia artificial y el futuro.
    • '11. Artificial Intelligence in Human-Robot Interactions': Estudia los retos que la interacción humano-robot, un contexto con entornos no deterministas y parcialmente desconocidos y donde, además, las respuestas que se ofrezcan deben ser socialmente aceptables y estar dotadas de un cierto sentido común. Se trata de un capítulo breve donde se identifica dónde se sitúa la inteligencia artificial en la robótica, se centra el campo del machine learning y se dedica bastante espacio a elucubrar sobre desarrollos futuros.

'Emotional design in Human-Robot Interaction: Theory, methods and applications' es un libro interesantísimo por el contenido y bien tratado en lo formal, con un discurso que, dentro del tono científico, es atractivo y está en general bien explicado. Un libro, por tanto, aunque especializado por la temática que trata, muy accesible en cuanto a dificultad/facilidad de lectura. Y un libro que, y aquí hablo desde mis gustos particulares, me resulta apasionante por la temática que aborda. 

Hande Ayanoglu

(Fuente: Traducción y ligera elaboración propia de su ficha en UNICOM IADE)

Hande Ayanoglu
Hande Ayanoğlu ha trabajado como profesor ayudante en IADE, Universidade Europeia e impartido clases en niveles pregrado (Interaction Design and Ergonomics) y posgrado de diseño (Master in Interaction Design y Master in Product and Space Design). Es además la coordinadora del Master in Product and Space Design. Además, es investigadora en la unidad de investigación de UNIDCOM/IADE desde 2014.

Reslizó un post-doc sobre evaluación de peligro a partir de la forma y color de paquetes. Fue profesora investigadora visitante en el Laboratorio de Ergonomia de la Universidad de Lisboa. para finalizar su tesis doctoral desde 2011 a 2013. Completó su doctorado sobre Diseño e Innovación en Second University de Nápoles, Italia (2014), su máster en Interior Architecture and Environmental Design en Hacettepe University, Turquía (2010) y su grado en Diseño Industrial en at Eskisehir Anadolu University, Turquía (2007).

Sus áreas de interés en investigación son la ergonomía cognitiva en diseño, explícitamente diseño de productos, con foco en el diseño centrado en el usuario y realidad virtual. Ha colaborado activamente con investigadores en otras disciplinas como informática, psicología, arquitectura, ergonomía y diseño. Ha formado parte de proyectos de investigación relativos a diseño de producto, diseño emocional, Human-Robot interaction, diseño de interacciones y entornos inteligentes.

Ha escrito capítulos de libros y actas de conferencias relativos a estos temas. Ha sido parte de la organización y comité científico de varias conferencias.

Puedes saber más de la autora visitando su perfil en UNIDCOM IADE.

Emilia Duarte

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Emilia Duarte
Emilia Duarte es profesora asociada en IADE, Universidade Europea, Lisboa, Portugal y enseña ergonomía en los cursos de diseño (grado y máster). Es la directora del curso de doctorado en diseño. También es la coordinadora de la unidad de Investigación y Desarrollo de IADE, denominada UNIDCOM/IADE.

Tiene un doctorado en Ergonomía de la Faculdade de Motricidade Humana de Lisboa (antigua Universidade Técnica de Lisboa), Portugal en 2011, un máster en Ergonomía en Seguridad y Salud de la misma universidad en 2004 y ungrado en diseño industrial de IADE - Superior School of Design, Lisboa, Portugal. La mayor parte de su actividad investigadora se centra en el diseño de avisos, gráficos, realidad virtual, diseño emocional y experiencia de usuario.

Puedes saber más de la autor visitando su perfil en LinkedIn.

Ficha técnica:

miércoles, 20 de enero de 2021

Tres cuestiones éticas en el campo de la interacción entre robots y personas


Los avances en materia de robótica y de inteligencia artificial, la consecución de agentes inteligentes dotados de presencia física como son los robots sociales, abren unas fantásticas e inspiradoras posibilidades, una perspectiva de avances tanto en el ámbito industrial o laboral, como incluso en los servicios y los entornos domésticos. Pero también da lugar a miedos, algunos justificados y otros no, y a ciertos desafíos éticos que conviene tener presentes.

En algún momento intentaré disponer, a ver si es viable, de un censo más o menos consensuado y abarcador de estos retos, estado de opinión y respuestas razonables.

De momento, en este post quisiera recoger tres riesgos que se destacan ya hacia el final del fantástico libro 'The Oxford Handbook of Affective Computing', en concreto en un capítulo firmado por Ronald C. Arkin y Lilia Moshkina y que se centra en el afecto en las relaciones entre robots y personas.

Estos autores citan las aportaciones procedentes del campo de la filosofía y, en concreto, el artículo 'The march of the robot dogs. Ethics and Information Technology' de Robert Sparrow (2002) y el libro 'Alone together: Why we expect more from technology and less from each other' de Sherry Turkle (2011). Y resumen en estos tres puntos los riesgos a que nos enfrentamos en caso de la introducción en la vida humana de unos robots altamente interactivos:


  • Malos entendidos intencionados: Se refiere en concreto a personas mayores y a que se les pueda crear intencionadamente una visión distorsionada de la realidad, atribuyendo cierta 'vida' a los robots. Se preguntan los autores si no debería existir un derecho a percibir el mundo tal cual es.

  • Derogación de responsabilidad: En este caso habla de una excesiva delegación en robots de tareas de cuidados de otras personas, con un posible impacto en esas personas sometidas a cuidados.

  • Deterioro del tejido social: Se apunta, finalmente, a un riesgo de deterioro generalizado de las relaciones entre personas, por la aparición de unos artefactos, los robots, con los que puede resultar más atractivo interactuar que con personas reales.


Así enunciados, estos riesgos asustan un poco. No tengo claro que esos riesgos sean tan profundos. No obstante, tampoco me parecen descabellados, así que, mientras construimos nuevas tecnologías y nuevas soluciones, nuevos robots sociales en este caso, conviene estar en paralelo muy atentos a estos riesgos e implementar medidas para mitigarlos o, si se puede, eliminarlos.


miércoles, 13 de enero de 2021

El doble papel de la emoción en la robótica

Un área de conocimiento en el que llevo varios meses investigando y formándome, por motivos que mezclan lo vocacional con lo profesional, es la relación entre robots y personas fundamentalmente en entornos no necesariamente laborales ni productivos, sino domésticos y del día a día. Ese área de conocimiento cae bajo los paraguas conceptuales de Human-Robot Interaction (HRI) y Computación afectiva ('Affective computing').

En ese tipo de relaciones entre robots y personas fuera de los ambientes industriales cobra mucho interés el campo de la detección y gestión de las emociones, un campo, además, apasionante en lo tecnológico pero también en lo psicológico y neurocientífico.

Ya hace unas semanas explorábamos en este blog cómo era posible que un robot detectase emociones humanas y, un poco antes, por qué debería un robot manejar emociones, donde se apuntaban cuatro motivos que tenían mucho que ver con la mejora de la interacción del robot con el usuario, con las personas.

Avanzando un poco en mi investigación encuentro ahora un planteamiento parecido en el libro coral 'The Oxford Handbook of Affective Computing'. En el capítulo dedicado al afecto en la interacción entre humanos y robots, y en un capítulo firmado por Ronald C. Arkin y Lilia Moshkina,  se analiza el papel de la emoción en la robótica y se identifican dos roles importantes.

Por un lado, apuntan a lo que denominan el comportamiento adaptativo para la supervivencia. Dicho así, suena muy aparatoso pero, en el fondo, a lo que se refieren es a que los humanos, como ya hemos visto, tendemos a antropomorfizar todo aquello con lo que interactuamos, en este caso robots. Y como parte de esa antropomorfización, tendemos a atribuir intenciones y emociones al robot. Ya que eso es así, ya que le atribuimos emociones al robot aunque no las tenga en absoluto, mejor gestionarlas de manera explícita, y de esa forma adaptar mejor el comportamiento del robot a su entorno, en este caso, un entorno humano e incrementar, de alguna manera, su posibilidad de 'supervivencia'.

En segundo lugar el rol de las emociones, de la gestión de las emociones, es mejorar y enriquecer la la relación (los autores hablan del 'ancho de banda' de esa relación) mediante el uso de comunicación no verbal creando así una relación mucho más fuerte.

De estos dos roles, los autores consideran que el primero está realmente fuera del campo de HRI (Human-Robot Interaction) mientras el segundo entra de lleno en esa disciplina.

Aunque hay muchos matices e implicaciones dependiendo del caso de uso, incluyendo en esos matices aspectos técnicos, psicológicos e incluso éticos, parece claro que el objetivo principal del manejo de emociones en la interacción entre personas y robots es, simplemente, mejorar esa relación.


lunes, 11 de enero de 2021

Nueve obligaciones éticas a respetar en computación afectiva

Diría que la ética en Inteligencia Artificial está de moda... con lo bueno y malo que tiene el que algo importante se ponga de moda.

Considero un efecto positivo de la moda el que se ponga foco y haya trabajo, en algún caso trabajo serio. Pero considero peligroso que se banalice y malbarate la disciplina.

Y, desde luego, ante la abundancia de información se puede crear confusión y desorientación.

Tengo interés, por ello, y en ello pienso trabajar un poco en el asunto próximamente, en intentar censar de una manera ordenada y abarcadora, pero espero que no muy complicada, las problemáticas éticas en relación con la inteligencia artificial, la robótica y, específicamente, el área de trabajo en Human-Robot Interaction.

En relación con esa temática, una fuente interesante es el capítulo que con respecto a las problemáticas éticas en 'affective computing' firma Roddy Cowie dentro del fantástico libro coral 'The Oxford Handbook of Affective Computing'. En ese capítulo, hace un amplio recorrido por esos puntos éticos que afectan a la computación afectiva. Cuando finaliza dicho capítulo el autor señala, no sin cierta sorpresa que, en el fondo, toda esa larga serie de problemáticas se pueden recoger en una lista corta de nueve obligaciones que debería respetar toda aquella persona que trabaje en computación afectiva.

Estos son esas nueve obligaciones:

  • Entender las premisas en que se basan los juicios éticos y y reconocer el hecho de que otros podrían mantener unas premisas éticas diferentes a las nuestras.

  • Acatar los códigos éticos que gobiernan los estudios con seres humanos y la privacidad de los datos.

  • Defender el valor ético de hacer que las interacciones entre humanos y máquinas den como resultado más probable un afecto positivo que un afecto negativo.

  • Intentar asegurar que los sistemas que construyen no harán nada a terceros de lo que ellos mismos no quieran ser objeto y nada a lo que los usuarios pondrían objeciones caso de saber que está sucediendo.

  • En relación con el punto anterior, asegurar que sus sistemas no engañan a las personas y tampoco infringen su autonomía.

  • Asegurarse de conocer de forma clara, las capacidades y limitaciones de sus sistemas basado en un entendimiento adicional de las capacidades humanas correspondientes.

  • En la comunicación con personas no expertas, deberían ayudar a hacer evaluaciones realistas, tanto de las capacidades de sus sistemas como de los riesgos que pueden traer consigo.

  • Ser sensibles a las implicaciones morales anexas a los términos que se utilizan y los modelos que se proponen.

  • En el caso de que en sus áreas de trabajo se generen otras problemáticas éticas, deberían familiarizarse con ellas.

Algunas de esas obligaciones, especialmente la primera, son muy genéricas y aplican a casi cualquier consideración ética, más allá del affective computing y más allá, también, de la inteligencia artificial y la robótica. Otras, donde se menciona a sistemas, por ejemplo, claramente se enmarcan en ámbitos técnicos en que se trabaja con máquinas que se relacionan con personas.

Quizá destacaría un mensaje no técnico que contienen la primera y última obligación y que percibo como la necesidad de conocimiento, un conocimiento honrado, abierto y transversal. Transversal para no quedarse en nuestra disciplina de experiencia propia sino ser capaz de trascenderla conocer y entender otras disciplinas contiguas (o no tanto) que solapan de alguna forma con la nuestra, como se punta en la última obligación. Y honrado y abierto para reconocer que no existe una visión universal de la moral ni de la ética, como se explicita en la primera obligación y, por tanto, se necesita mente abierta y actitud de diálogo sincero.
 
No cierra este planteamiento, ni mucho menos, el censo que me gustaría hacer de problemáticas éticas en robótica e inteligencia artificial, pero apunta cosas muy interesantes con las que me quedo.
 

viernes, 8 de enero de 2021

Ética en robótica e inteligencia artificial con Bartneck, Lütge, Wagner y Welsh

'An introduction to ethics in robotics and AI' es una gran introducción a los enfoques éticos en relación con estas dos disciplinas interrelacionadas: la inteligencia artificial y la robótica. Un aspecto bonito es su carácter transversal y multidisciplinar con autores de campos que incluyen lo técnico, lo psicológico y lo filosófico. Se trata, eso si, de un libro corto y, como su titulo ya anuncia. de carácter introductorio. 

El contenido se estructura en doce capítulos no muy extensos:
  • '1. About the book:' Un breve capítulo introductorio con las biografías de los autores y la estructura del libro.

  • '2. What is AI?:' Introduce definiciones y conceptos básicos en tres fases; primero inteligencia artificial, visitando algunas definiciones, el Test de Turing, inteligencia artificial fuerte y débil y tipos de sistemas de Inteligencia Artificial. Luego pasa al Machine Learning incluyendo la fijación del concepto y tipos de aprendizaje. Y en la tercera fase se centra en los robots, en el patrón percibir, planificar, actuar y en las problemáticas de integración. Finaliza repasando temas complejos para la inteligencia artificial y la visión que de la misma se da en la ciencia-ficción.

  • '3. What is Ethics?:' Comienza planteando la diferenciación entre ética y moral y adoptando una definición sencilla. Luego describe de una forma muy breve diferentes enfoques de la ética: en primer lugar la descriptiva y en segundo la normativa (deontológica, consecuencialista y ética de la virtud) para seguir con metaética y ética aplicada. Luego, de nuevo con mucha brevedad, explora la relación de la ética con la ley y finaliza explayándose algo más sobre la ética para las máquinas.

  • '4. Trust and Fairness in AI Systems:' Analiza el concepto de confianza ('trust') y los elementos que la integran. Luego proporciona y analiza brevemente cinco principios éticos: no maleficencia, beneficencia, autonomía, justicia y explicabilidad).

  • '5. Responsibility and liability in the Case of AI Systems:' Aborda el problema de la asignación de responsabilidad en caso de accidente, para lo cual se concentra en dos casos: el accidente de un vehículo autónomo y un error en el objetivo de un arma autónoma. Complementa el capítulo con tres cortas referencias a conceptos como la responbilidad estricta, la responsabilidad mixta y las sanciones.

  • '6. Risks in the Business of AI:' Adopta una visión algo diferente centrándose en la perspectiva de una empresa y los riesgos que asume al trabajar en inteligencia artificial. Se presenta un censo de riesgos agrupándolos en dos bloques. los riesgos generales para el negocio y los riesgos de naturaleza ética. Y luego habla de la gestión de esos riesgos y del concepto de ética en los negocios aplicada al caso de empresas de inteligencia artificial. Finaliza con una referencia a los riesgos para los trabajadores.

  • '7. Psychological Aspects of AI:' Un capítulo muy interesante donde se abordan aspectos relacionados con la psicología y así, en concreto, se comenta el fenómeno de la antropomorfización, el riesgo de la inteligencia artificial persuasiva y la vinculación emocional con las máquinas.

  • '8. Privacy Issues of AI:' Le toca el turno al que quizá sea el tema más mencionado cuando se habla de ética en relación con el Big Data y a Inteligencia Artificial: la privacidad. Primero se centra el problema explicando de forma rigurosa el concepto de privacidad y explicando por qué la inteligencia artificial necesita datos y luego se extiende bastante en la explicación de los riesgos por usos poco éticos de los datos. Finaliza con unos breves apuntes sobre tendencias en materia de privacidad.

  • '9. Application Areas of AI:' Comenta varios campos de aplicación de la inteligencia artificial y los riesgos asociados. Así se habla de la rehabilitación, del concepto de 'aumento', de la telemedicina, del cuidado psicológico y de la educación y finaliza con los robots sexuales.

  • '10. Autonomous vehicles:' Un capítulo para enfocarse de manera específica en el caso del vehículo autónomo. Primero describe los niveles de autonomía y la situación actual, para luego hablar en primer lugar de los beneficios éticos de los vehículos autónomos, para a continuación mencionar los accidentes y finalizar proporcionando algunos criterios y contestando preguntas habituales sobre accidentes inevitables, responsabilidad y privacidad

  • '11 Military Uses of AI:' Y otro capítulo para el caso específico de las armas autónomas, para las que comienza aportando algunas definiciones, sigue con problemáticas como la discriminación, la proporcionalidad y la responsabilidad, y luego proporciona un breve apunte sobre regulación seguido de un repaso de los argumentos a favor y en contra de este tipo de sistemas.

  • '12 Ethcis in AI and Robotics: A Strategic Challenge:' Una reflexión final sobre los retos a afrontar donde se dedica espacio a hablar del papel de la ética y de la colaboración internacional.
'An introduction to ethics in robotics and AI' es un libro muy oportuno y atractivo, con un tratamiento de las diferentes temáticas básico y breve, pero riguroso y con una estimulante visión multidisciplinar. Por si algo le falta, la editorial lo ofrece de manera gratuita, así que con todo ello resulta más que recomendable. 

Christoph Bartneck

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro Human-Robot Interaction: An introduction)

Christoph Bartneck
Christoph Bartneck es profesor asociado y director de estudios de posgrado en el Human Interface Technology Lab New Zealand (HIT Lab NZ) en la Universidad de Canterbury. Tiene formación en diseño industrial e interacción humano robot. y sus proyectos y estudios han sido publicados en las revistas, periódicos y conferencias mas importantes.

Sus intereses se encuentran en los campos de human-computer interaction, estudios de ciencia y tecnología y diseño visual. Más concretamente, se enfoca al efecto del antropomorfismo en Human Agent Interaction (interacción humano-agente). Como un segundo interés investigador, trabaja en análisis bibliométrico, simulaciones sociales basadas en agentes y la revisión critica de políticas y procesos de investigación. En el campo del diseño, Christoph investiga la historia del diseño de productos, mosaicos y fotografía.

La prensa se hace eco con frecuencia de su trabajo, incluyendo New Scientist, Scientific American, Popular Science Wired, the New York Times, The Times, the British Broadcasting Corporation (BBC), HuffPost, the Washington Post, The Guardian y The Economist.

Puedes saber más del autor visitando su página oficial.

Cristoph Lütge

(Fuente: Traducción y ligera elaboración propia de Wikipedia)

Christoph Lütge
Christoph Lütge (nacido en 1969) es un filósofo y economista alemán, notorio por su trabajo en ética de los negocios, ética de la Inteligencia Artificial, ética experimental y filosofía política. Es profesor a tiempo completo de Ética de los nehocios en Technische Universität München, Bavaria, Alemania, y Director del Institute for Ethics in Artificial Intelligence.

Tras estudiar filosofía e informática de gestión en Braunschweig, Göttingen y Paris, Lütge fue estudiamte de doctorado en Technical University of Berlin y Braunschweig University of Technology entre 1997 y 1999. Fue profesor visitante en la University of Pittsburgh en 1997 y socio investigador en University of California, San Diego en 1998. En 1999 recibió su doctorado en filosofía y se convirtió en investigador ayudante en Ludwig Maximilian University of Munic. Fue profesor visitante en Venice International University en 2003. Desde 2004 Lütge fue profesor ayudante en el departamento de filosofía de la Ludwig Maximilian University of Munich. Christoph Lütge fue profesor en Witten/Herdecke University desde 2007 a 2008 y en Braunschweig University of Technology desde 2008 hasta 2010. Desde Agosto de 2010, ejerce la recientemente creada presidencia Peter Löscher Endowed Chair of Business Ethics at Technical University of Munich. En 2019, Lütge se convirtió en director del nuevo Institute for Ethics in Artificial Intelligence (IEAI) at Technical University of Munich.

Puedes saber más del autor visitando su perfil en LinkedIn.

Alan Wagner

(Fuente: Traducción y ligera elaboración propia de la ficha de autor en el libro 'An Introduction to Ethics in Robotics and AI')

Alan Wagner
Alan Wagner es profesor ayudante de ingeniería aeroespacial en la Pennsylvania State University e investigador asociado en el Rock Ethics Institute. Sus intereses investigadores incluyen el desarrollo de algoritmos para la interacción humano-robot, confianza humano-robot, técnicas de percepción para la interacción, roboética y ética de máquinas. Las áreas de aplicación para estos intereses abarcan desde lo militar a la salud. Sus investigaciones han ganado varios premios incluyendo el haber sido seleccionado para el Air Force Young Investigator Program. Su investigación acerca del engaño ha obtenido una notoriedad significativa en medios dando lugar a artículos en el Wall Street Journal, en New Scientist Magazine, the journal of Science y haber sido calificado como la decimotercera invención más importante de 2010 por Time Magazine. Sus investigaciones tambiñen han obtenido reconocimients en la comunicad de human-robot interaction, como el premio al mejor artículo en RO-MAN 2007 y 2018, ACM Transaction on Interactive Intelligent Systems journal.

Puedes saber más del autor visitando su perfil en LinkedIn.

Sean Welsh

(Fuente: Traducción y ligera elaboración propia de la ficha de autor en el libro 'An Introduction to Ethics in Robotics and AI')

Sean Welsh
Sean Welsh es graduado en Filosofía en la University of Canterbury y miembro del Ethics, Law and Society Workgroup of the AI Forum de Nueva Zelanda. Antes de embarcarse en su investigación doctoral en Inteligencia Artificial y ética de los robots, trabajó como ingeniero de software en varias compañías de telecomunicaciones. Sus artículos han aparecido en The Conversation, the Sydney Morning Herald, the World Economic Forum, Euronews, Quillette y Jane's Intelligence Review. Es autor de 'Ethics and Security Automata' una investigación monográfica sobre ética de máquinas.

Puedes saber más del autor visitando su perfil en LinkedIn.

Ficha técnica:

lunes, 4 de enero de 2021

Una interesante definición de agente inteligente

Muchos de los conceptos de la Inteligencia Artificial ofrecen contornos borrosos, no existiendo una definición clara y universalmente aceptada.

Esa falta de fronteras precisas comienza por el propio concepto de inteligencia artificial y se transmite a otras nociones incluyendo, incluso, la de robot.

Repasando el libro  'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, he recordado una definición que me ha parecido interesante traer a colación.

En esta obra se menciona una definición aportada por Poole y Mackworth en 2010 y que gira en torno al concepto de agente inteligente. Esta es la definición:

[AI is] the field that studies the synthesis and analysis of computational agents that act intelligently

Hasta ahí la definición se nos queda un poco coja, y es casi una tautología dado que en el fondo, delega en buena medida el concepto de inteligencia artificial en el de agente inteligente. Pero lo interesante viene cuando se definen las características de los agentes inteligentes. Son estas cuatro:

  • Sus acciones son apropiadas para las circunstancias y sus objetivos

  • Es flexible ante entornos y objetivos cambiantes

  • Aprende de la experiencia

  • Hace elecciones adecuadas dadas sus limitaciones de percepción y computacionales

De estas cuatro características creo que las más representativas son la flexibilidad y el aprendizaje siendo muy similares entre sí, al menos eso a mi me parece, la primera y cuarta. 

De alguna forma, este concepto de agente inteligente parece referirse a un robot pero, en realidad, es un concepto más amplio y casi cualquier ente físico o lógico cabe en él. En los casos en que existe una  cierta realidad física o 'corporal' ('embodyment') nos llevaría a pensar en los robots (incluyendo robots industriales inteligentes o androides pero también drones inteligentes, vehículos autónomos e incluso altavoces inteligentes), mientras que cuando sólo existe una realidad lógica, podríamos pensar en robots software (chatbots, voicebots, RPA) o, incluso, en otras formas de software inteligente no claramente robóticas. 

En cualquier caso, y aunque no creo que esta definición cierre completamente la dificultad de definir inteligencia artificial y robot, sí me ha parecido que aporta una explicación interesante.