miércoles, 30 de marzo de 2022

Una definición formal pero insuficiente de robot

¿Qué es un robot? ¿Qué es exactamente un robot?

La dificultad de una definición de robot


Aunque parece que, intuitivamente, todos sabemos lo que es un robot, lo cierto es que el asunto no parece estar tan claro si se 'aprieta' un poco, si se cuestiona con cierto rigor.

Cuando hace un tiempo, creo que para un curso, busqué una definición de robot pensando que sería labor sencilla, me di cuenta que no era tan fácil y me encontré con la siguiente definición.


Manipulador multifuncional reprogramable, capaz de mover materiales, piezas, herramientas o dispositivos especiales según trayectorias variables, programadas para realizar tareas diversas

una definición que aportaba la Robotic Industries Association y que parece bastante acertada... pero sólo si estamos hablando de robots industriales y casi diría que solo de ciertos tipos de robots industriales, los típicos brazos articulados de las fábricas, pero lejos de cubrir muchos tipos de robots, como los robots móviles, los robots de servicio como los robots aspiradora (que no considero un manipuladores) o el vehículo autónomo. Y no digamos ya nada si tratamos de aplicarla a un robot software.

Creo que, en el fondo, el problema radica en que nadie se preocupó en su momento, a lo mejor tampoco tenía mayor interés, de definir qué era un robot o de marcar algún tipo de pauta, siquiera lingüística. Y han ido desarrollándose dispositivos o máquinas a las que en ocasiones sus fabricantes llaman robots por motivos que pueden ser técnicos pero también de puro marketing o de simple costumbre o improvisación.

Y si eso es así, si el nombre se ha asignado sin mucho criterio ni rigor, y creo que es ni más ni menos que lo que ha sucedido, encontrar ahora una definición válida de robot es, como suelo decir en casos de términos como éste y alguno más, hacer una especie de 'ingeniería inversa' para intentar encontrar el factor común que anida en todos esos dispositivos a los que personas variadas asignaron el nombre robot sin pensárselo demasiado. E intentar así alcanzar así una definición 'universal' de robot.

Difícil tarea.


Los atributos de robot identificados en 'Robots en la sombra'


Cuando escribí mi libro 'Robots en la sombra', centrado en robots software, me tropecé con esa dificultad, más acentuada si cabe porque, si bien no acabo de encontrar un enunciado que agrupe correctamente a todos los robots hardware, si me quedo en este ámbito sí parecen existir enunciados que, aunque quizá no perfectos, pueden constituir una buena aproximación. 

Sin embargo, un enunciado que también agrupe bajo el mismo paraguas, a los robots hardware y software, es harto más difícil.

En mi libro opté por, más que incluir una definición, intentar encontrar seis atributos que, al menos con mucha frecuencia, adornan a todos o casi todos los artefactos que denominamos robots. Estos atributos son:


  • Artificiales
  • Adaptables
  • Actuantes sobre el entorno
  • Autónomos
  • Sustitutos de personas
  • De actuación similar a personas


Unos atributos que yo mismo reconozco en la obra que pueden estar, especialmente los dos últimos, sometidos a debate, pero que me servían para poner bajo un mismo paraguas a todo tipo de robots y, además, a diferenciarlos de otro tipo de máquinas y de software.

No los explicaré más aquí. Desearía que el lector de este blog se animase a leer el libro y profundizar allí en estas ideas.


La definición formal pero insuficiente


Aunque probablemente en algún momento inicie una búsqueda y recopilación algo más sistemática del concepto de robot, lo cierto es que, sin buscarla especialmente, me he encontrado una nueva definición y ha ocurrido leyendo el libro 'Elements of robotics' de Mordechai Ben-Ari y Francesco Mondada

La verdad es que la fuente no es muy especializada, ya que lo que hacen los autores es transcribir una definición del Oxford English Dictionary y que reza así:


A machine capable of carrying out a complex series of actions automatically, especially one programmable by a computer.


Los propios autores vuelcan en seguida una suave crítica a la definición, una crítica en que hacen ver que el hecho de hacer actividades de forma automática no diferencia a un robot de cualquier otro tipo de automatismo como un lavavajillas y que si la diferencia es que esas tareas son 'complejas' se trata de una frontera bastante difusa.

Una crítica en que resaltan también que, aunque el estar programados por un computador ayuda a diferenciarlos de autómatas puramente mecánicos, no los distingue, sin embargo de tantas y tantas soluciones basadas en computadores.

Y una crítica en que resaltan que no se mencione para nada a los sensores que ponen en contacto al robot con su entorno.

En efecto, creo que, pese al prestigio lingüístico de la fuente, esa definición de robot es muy, pero que muy insuficiente, y bastante poco afortunada.

Eso sí, los autores, expertos en robótica, deben ser conscientes de la dificultad de definir lo que es un robot puesto que, aunque a continuación proporcionan una clasificación de robots y explican diferentes tipos de robots, no se animan a aportar una definición propia y alternativa.


Conclusión


Prefiero no aseverarlo con total certeza, pero sigo pensando que es muy difícil, puede que imposible, encontrar una definición de robot que, aunando todos los diferentes tipos de robots, los distinga además nítidamente de otro tipo de artefactos.

Y en ese sentido, sigo pensando que es más viable identificar las características que predominen ampliamente en la mayor parte de ellos aunque haya tipos de robots que no exhiban todas las características y aunque otras máquinas disfruten de alguna o algunas de ellas.

No renuncio, en cualquier caso, a encontrar (o formular) esa definición definitiva o a evolucionar  el listado de atributos que proporcioné en 'Robots en la sombra', pero ahora mismo me interesa mucho más profundizar en el conocimiento, el verdadero conocimiento de los mismos, desde el punto de vista tecnológico, desde el punto de vista de negocio y desde el punto de vista ético.


miércoles, 23 de marzo de 2022

Agentes conversacionales: ¿Para qué desarrollar sistemas que hablen?

En realidad, la pregunta es algo más amplia que la que el título indica.

En realidad, la pregunta no es sólo por qué construir agentes que sean capaces no sólo de hablar, sino también de escuchar. 

Y ni siquiera la pregunta se queda ahí. Aunque quizá el caso más interesante sea la conversación de viva voz, la pregunta abarca también el porqué, en general, construir máquinas, físicas o software, capaces mantener una conversación y diálogo más o menos natural y fluido con los humanos.


De las interfaces conversacionales a la 'Conversational AI' pasando por los chatbots


Hablamos de un gran número de dispositivos y soluciones como los chatbots, voicebots, smart speakers, robots sociales, y coches o aspiradoras que hablan, por mencionar algunos. 

Es difícil elegir un nombre. 

Refiriéndome sólo a las soluciones software, en mi primer libro, 'La carrera digital' decidí adoptar el término interfaz conversacional, bastante afortunado conceptualmente, pero no muy cercano al gran público. En mi segundo libro 'Robots en la sombra' opté por el término chatbots, corto y conocido, aunque en la mente de algunos lectores puede, incorrectamente, eliminar aquellos que utilizan la interfaz de voz. 

Últimamente, suelo utilizar mucho el término 'Conversational AI' porque es compacto, resalta el aspecto funcional (mantienen conversaciones) y tecnológico (los medianamente avanzados se basan en inteligencia artificial) y, quizá no tanto en Español, pero sí es muy utilizado en medios digitales internacionales.

En cualquier caso, las bases tecnológicas son las mismas y la pregunta, por qué construirlos, aplica probablemente a todos ellos: para qué, en definitiva, construimos agentes conversacionales, interfaces conversacionales, chatbots o como queramos denominarlos.

 

Tres razones para los agentes conversacionales


Estoy iniciando la lectura del libro 'Conversational AI. Dialogue systems, conversational agents and chatbots' del profesor emérito Michael McTear y, en el primer capítulo del libro, el autor se pregunta precisamente esto, por qué construir lo que el denomina 'dialogue systems' y que podríamos traducir como sistemas dialógicos o sistemas conversacionales, pero que no deja de ser otro nombre alternativo para lo mismo que decíamos más arriba.

Nomenclatura aparte, McTear identifica tres motivos para construir este tipo de sistemas conversacionales:


  • Proporcionan una baja barrera de entrada para los usuarios, interactuando con ellos de forma natural y eliminando, por tanto, al menos en teoría, la necesidad de un conocimiento, aprendizaje o acostumbramiento por parte del usuario, quien interactúa de la misma forma que haría con un humano (un vendedor, un operador de contact center, etc)

  • Desde un punto de vista de la ciencia cognitiva, permite modelar computacionalmente las competencias dialógicas humanos, pudiendo ser un medio para estudiar y entender el comportamiento humano y sus interacciones sociales

  • Para simular el comportamiento conversacional humano de forma que puedan parecer humanos y, por ejemplo, pasar el 'test de Turing.


De las tres motivaciones aportadas, la única que está orientada a motivos comerciales o de negocio es la primera que, por cierto, en mi opinión, es fundamental, aunque no única, para explicar el auge, o al menos el porqué, de estos agentes conversacionales.

Me parece interesantísima la segunda, su uso para la investigación cognitiva, pero no creo que eso justifique, por sí solo, ni mucho menos, el auge de los agentes conversacionales, aunque sí me parece un excelente motivo para trabajar en ellos.

La tercera, me parece, sinceramente, anecdótica o, si se prefiere, una derivada secundaria de las anteriores


Y alguna razón más


Desde la visión más cercana al negocio o el uso comercial, quizá convendría apuntar algo más.

En mi libro 'Robots en la sombra', cuando hablo de los beneficios de los chatbots, destaco lo que se puede obtener de ellos como una forma de automatización de procesos (más bien de tareas): eficiencia, reducción de tiempos, escalabilidad, disponibilidad 7x24, etc. En realidad, estos beneficios están, de alguna forma, implícitos en el primer argumento de McTear puesto que se trata de beneficios que se derivan de cualquier automatización de la interfaz con personas (casi de cualquier automatización), siendo los chatbots una opción más de automatización que se elige, fundamentalmente, por esas bajas barreras de entrada para los usuarios.

Sin embargo, quisiera apuntar dos cosas.

En mi libro 'Robots en la sombra' aludo también al interés operativo y de negocio del autoservicio del usuario. De nuevo, el autoservicio se puede implementar de muchas formas, no necesariamente conversacionales, pero todo lo que ayude a facilitar la comprensión, a engrasar la interacción, a bajar en definitiva la barrera de entrada a ese autoservicio, favorece muchísimo su adopción y su éxito y más cuando hablamos de gran público, de servicios generalistas.

Igualmente, y aunque esto es más discutible, y lo será más conforme pase el tiempo y nos acostumbremos más y más a las interfaces conversacionales, un agente conversacional, especialmente si es por voz y más especialmente si va acompañado por un avatar avanzado, tiene capacidad para provocar el llamado 'efecto wow' y por tanto provocar una cierta diferenciación de marca, por pura experiencia de cliente, transmitiendo, además, una imagen moderna e innovadora.


Conclusión


Por estas, y quizá por alguna otra razón que no haya aparecido en este artículo, se construyen agentes conversacionales y, en mi opinión, es algo que no va a hacer otra cosa que crecer y generalizarse (y más a medida que se sigan perfeccionando los algoritmos de procesamiento de lenguaje natural). Y creo que estos agentes conversacionales, o estas capacidades conversacionales embebidas en todo tipo de dispositivos, serán elementos muy importantes de esa explosión robótica que vaticino y que ya he recogido en algún artículo anterior.



lunes, 21 de marzo de 2022

Quince recomendaciones sobre regulación de la Inteligencia Artificial y los robots

Muchas son las recomendaciones que están viendo la luz respecto de la aplicación con criterios éticos de la Inteligencia Artificial y la robótica.

Algunas iniciativas, como las que están teniendo lugar en el seno de la Unión Europea, tienen, además, el objetivo claro de acabar convirtiéndose en normativa, en directrices y leyes.

Otras, sin embargo, son más bien orientaciones de alto nivel, códigos deontológicos o recomendaciones.

Una dificultad para la regulación de la inteligencia artificial y la robótica es el paso acelerado de estas tecnologías y, en ocasiones, la escasa comprensión que sobre ellas existe.

Recomendaciones para un nuevo modelo de regulación de la Inteligencia Artificial y la Robótica


Un poco por lo anterior, se puede entender que el modelo tradicional de regulación por parte de gobiernos y administraciones, pudiera no ser realista y pudiese necesitarse un nuevo modelo.

En el post de hoy recojo, y comento brevemente, unas lista de quince recomendaciones que me encuentro en el libro coral 'Robotics, AI and Humanity'  y que, en este caso, aparecen en un capítulo firmado por Angela Kane del Vienna Center for Disarmament and Non-Proliferation, una persona con experiencia en los ámbitos políticos y diplomáticos europeos y que se ha enfocado en buena medida en los aspectos relacionados con evitación de conflictos y desarme, incluyendo en ese punto a las armas letales autónomas.

Esta diplomática, entiende que los mecanismos tradicionales de regulación pueden no ser adecuados y, de cara a un modelo más realista, propone quince recomendaciones, una recomendaciones que recojo, traducidas y transcritas sin apenas elaboración, a continuación:

  • Expande el conocimiento en Inteligencia Artificial de manera que no quede confinado en un número pequeño de países o un segmento acotado de la población

  • Acepta que las decisiones acertadas sobre tecnología de Inteligencia Artificial no se pueden adoptar sin una fuerte aportación de los propios tecnólogos.

  • Encuentra, por tanto, un lenguaje común para funcionarios, legisladores y expertos técnicos.

  • Inicia un diálogo que incluya: (a) políticas informadas por las posibilidades técnicas (b) aprecio por parte de los expertos tecnológicos de los requisitos para directrices de responsabilidad.

  • Debate cómo construir una licencia social para la Inteligencia Artificial, incluyendo la estructura de incentivos que animen a la industria y la administración a alinear el desarrollo y despliegue de la Inteligencia Artificial con el interés público.

  • Enfócate en el resultado y no tanto en el proceso: principios, protección de la privacidad, convergencia de políticas digitales y diferencias entre sistemas regulatorios de Estados Unidos, Europa y China.

  • Marca algunas 'líneas rojas', es decir, áreas prohibidas a la Inteligencia Artificial, como las armas letales autónomas o la evaluación de ciudadanos por la administración ('social scoring').

  • Usa la estrategia de la 'ley blanda' ('soft law') para superar las limitaciones de las regulaciones gubernamentales tradicionales sobre Inteligencia Artificial y Robótica.

  • Debate los retos, costes, fiabilidad y limitaciones del estado del arte actual

  • Desarrolla profundas relaciones de trabajo, especialmente en el sector defensa, entre los desarrolladores públicos y privados de Inteligencia Artificial.

  • Asegura que tanto desarrolladores como legisladores prestan especial atención a la cuestión de la interfaz persona-máquina.

  • Comprende cómo los diferentes dominios dan lugar a diferentes retos.

  • Compila la lista de guías que ya existen y observa dónde existen 'gaps' que hay que rellenar para ofrecer más guía sobre trasparencias, responsabilidad y justicia en las herramientas de Inteligencia Artificial.

  • Aprende de comunidades adyacentes (como ciberseguridad, biotecnología o aviación) acerca de esfuerzos para mejorar la seguridad y robustez

  • Los gobiernos, fundaciones y corporaciones deberían asignar recursos para desarrollar y desplegar sistemas de Inteligencia Artificial con objetivos humanitarios.

Algunos comentarios


La verdad es que las recomendaciones de Angela Kane me parecen muy sensatas y creo que revelan experiencia real en estos entornos políticos y regulatorios.

Me llama la atención, agradablemente, el respeto que muestra por los tecnólogos y cómo señala la importancia imprescindible de su participación, algo que en mi opinión debería ser evidente, pero que creo que no siempre se percibe así.

Destacaría también, algo que parece en varias de las recomendaciones y es lo que tiene que ver con la colaboración y el diálogo entre actores. En un tema tan multidisciplinar, creo que ese diálogo, franco, abierto y con mutua comprensión, es muy relevante. De forma que veo relacionada, me parece muy interesante el señalar la necesidad de aprender y colaborar con ámbitos adyacentes como la ciberseguridad o la biotecnología.

A un nivel algo más de interés personal, me agrada el que señale la importancia específica de trabajar en las interfaces persona-máquina, algo que conecta muy bien con mi labor en OdiseIA en el área de Relación robots-Personas.


Conclusiones


Quizá, en el momento actual en que la Unión europea ya dispone de un borrador de reglamento sobre el uso de los sistemas de inteligencia artificial, podemos pensar que el modelo regulatorio tradicional sí está consiguiendo avanzar en el campo de la inteligencia artificial y la robótica.

Es posible.

Aún así, las recomendaciones de Kane me parecen, como digo, sensatas, realistas, y que vale la pena atenerlas como orientación en ese proceso de análisis ético y elaboración regulatoria.

viernes, 18 de marzo de 2022

Las leyes alternativas para una robótica responsable de Murphy y Woods

La verdad es que no deja de llamarme la atención que en los textos relativos a "roboética" (ética de los robots"), incluso en artículos científicos y eruditos, se mencione con tanta frecuencia casi como una fuente de autoridad las famosas tres leyes de la robótica de Asimov, unas leyes escritas, fundamentalmente, con un propósito artístico y literario, por más que puedan ser ingeniosas e, incluso, afortunadas. 

Leyes de la robótica


Hace ya unos meses, y como, aparte de las de Asimov, me aparecían aquí y allá, ciertas leyes de la robótica, decidí recopilarlas. Ylo que hice en el artículo que titulé 'Un compendio de leyes de la robótica'. En esa ocasión, hacía referencia a tres: las de Asimov, las de Marc Rotenberg y las de Satya Nadella.

Bueno, pues ahora, finalizando ya casi el libro 'Robotics, AI and Humanity', me tropiezo, en el penúltimo capítulo, firmado por Aimee van Wynsberghe, otras tres nuevas leyes de la robótica. En este caso, se trata de las leyes de la robótica responsable que proponen Robin Murphy y David D. Woods  en el artículo 'Beyond Asimov: The Three Laws of Responsible Robotics'.


Las tres leyes de la robótica responsable.


Según entiendo, la formulación de estas leyes buscaba algo más accionable que las famosas leyes de Asimov (aunque parecen inspirarse en ellas).

¿Cuáles son, en fin, esas tres leyes de la robótica responsable? 

Pues, en una traducción propia, y algo libre, se trata de las siguientes:


  • Un humano no debe desplegar un robot sin que el sistema de trabajo humano-robot cumpla los más altos estándares legales y profesionales relativos a ética y seguridad.

  • Un robot debe responder ante los humanos, en una manera adecuada al rol del humano.

  • Un robot debe estar dotado de una suficiente autonomía contextualizada como para proteger su propia existencia siempre y cuando dicha protección disponga de una transferencia de control sencilla a otros agentes de una forma consistente con la primera y segunda leyes.


Un aspecto a destacar de estas leyes frente a las de Asimov es que si las del escritor sitúan la agencia en el propio robot, estas leyes de la robótica responsable sitúan la agencia, y por tanto la responsabilidad, en los humanos, fundamentalmente en investigadores y diseñadores. 

En cierto sentido, las leyes de Asimov son unas leyes de los robots, mientras que éstas son realmente unas leyes de la robótica, entendida como disciplina humana. 

Parece destacado también mencionar en el aspecto del control que se menciona en la tercera ley, y que preocupa a más autores, especialmente cuando se habla de superinteligencias y de singularidad.


Limitaciones de las leyes de la robótica responsable según Aimee van Wynsberghe


Aimee van Wynsberghe

La autora que trae a colación en el libro mencionado estas leyes de la robótica,  Aimee van Wynsberghe entiende, sin embargo, que estas leyes son insuficientes, y que se quedan cortas, en cinco sentidos.


  • Entiende que los autores se quedan muy cortos a nivel de detalle sin captar los matices que el término 'responsable' tiene y que van Wynsberghe desarrolla en el resto del capítulo, algo sobre lo que no me voy a extender aquí.

  • También cree que no abarca suficientemente bien el tamaño y escala que los procesos de desarrollo de la relación robots-personas han alcanzado y todos los actores involucrados en los mismos.

  • Estas tres leyes se quedan en la relación robots-personas pero, sin embargo, el impacto de los robots va mucho más allá de esa relación directa

  • No entran suficientemente en las diferentes etapas y/o contextos del diseño de los robots y todas las decisiones que ocurren en esas etapas.

  • Las leyes asumen de alguna forma que está claro qué valores deberían ser programados en los robots o el tipo de obstáculos con que se pueden encontrar, lo cual parece una suposición excesiva o no realista.


Conclusión: una pequeña valoración


En mi valoración personal, un poco a bote pronto, eso sí, me parece una buena aportación de estas leyes de la robótica responsable, el cambio de foco hacia los humanos y hacia el proceso de diseño de esos robots, cosa que es bastante más realista que situar la agencia en los propios robots. Una agencia de los robots y una capacidad para tomar decisiones basadas en leyes éticas del estilo de las propuestas por Asimov es, realmente, pura ciencia-ficción cosa que es, por cierto, ni más ni menos que lo que Asimov pretendía hacer.

Sin embargo, siguen sin parecerme unas leyes accionables en absoluto por sí mismas y más bien parecen unas guías o directrices de alto nivel (muy de alto nivel).

Cabe decir, sin embargo, que aunque hablamos de leyes, estas leyes, como las otras que recogí en el post citado al abrir este artículo, son más filosofía que ley. Sin embargo, desde hace unos meses, quizá algún año, se está trabajando muy en serio a nivel de la Unión Europea en un marco para una inteligencia artificial responsable, habiéndose propuesto ya un borrador de reglamento. Y sus resultados van a afectar, al menos parcialmente, a la robótica. Y ahí sí que acabaremos hablando de leyes, de auténticas leyes que, como éstas que son objeto del artículo, obligarán a los humanos, no a los robots.

Dentro de la asociación OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial) y, en concreto, dentro del área de relación robots-personas que dirijo, estamos ya trabajando en el campo de las leyes, las verdaderas leyes, de la robótica. Espero a lo largo de este año, y quisiera que más pronto que tarde, mostrar algún resultado.  


Artículos de este blog relacionados:




miércoles, 16 de marzo de 2022

Tres supuestas barreras a una posible amistad robots-personas

Ante el avance en el desarrollo de las capacidades relacionales de los robots, ante los grandes desarrollos en materia de procesamiento de lenguaje natural y reconocimiento de voz, ante los progresos en computación afectiva y la detección de emociones por parte de los robots, ante, en fin, las mayores capacidades cognitivas y sociales de los robots, cada vez surgen más debates y cuestiones sobre hasta dónde pueden, o deben, llegar esas relaciones.

El problema de la amistad robots-personas


Uno de los temas controvertidos, sobre todo desde el punto de vista ético y filosófico es si es posible, o si es conveniente, el establecimiento de una amistad entre robots y personas

No es éste un debate nuevo para este blog. Hace ya casi un año, de hecho, y al hilo de la lectura del libro 'Humans and Robots: Ethics, Agency and Anthropomorfism' de Sven Nyholm, publicaba dos post consecutivos. 

En el primero, 'Un discurso filosófico a favor de la amistad entre robots y personas', aparte de unas consideraciones previas sobre la idea de amistad, revisaba el argumentario de John Danaher en favor de esa posibilidad de una relación amistosa entre robots y personas.

En el segundo, 'y un discurso filosófico cuestionando esa amistad entre robots y personas' se mostraba la posición contraria sostenida por Sven Nyholm.


Las tres barreras de Archer 


Ahora, y leyendo el libro 'Robotics, AI and Humanity', me encuentro con un capítulo firmado por Margaret S. Archer, una socióloga británica, en que se plantea esta misma problemática.

Y la autora detecta tres barreras para el establecimiento de una amistad entre robots y personas, tres barreras que, según Archer, refuerzan la 'robofobia:


  • Normatividad ('normativity')
  • Emotividad ('emotionality')
  • Consciencia ('consciousness')


La idea barrera de la normatividad significa que un ente artificial, digamos un robot, simplemente es incapaz de apreciar la diferencia entre el bien y el mal. La verdad es que la autora, aunque plantea esta anormatividad de los robots como una barrera para la amistad, en lo que sigue de su razonamiento se olvida un poco de la idea de amistad para centrar su análisis en la posibilidad o no de  dotar a los robots de esa cierta moralidad, de esa capacidad de distinguir lo bueno de lo malo.

En cuanto a la emotividad, se repite un poco el esquema: la autora lo plantea como una barrera para la amistad entre robots y personas pero su análisis se dirige casi más a razonar si realmente las emociones son necesarias o no para una relación, y si hay diferencia entre seres naturales y artificiales.

El problema de la consciencia la autora lo dirige mucho hacia el uso del lenguaje y hacia una especie de discurso interior, aunque, de nuevo, no se centra tanto en la relevancia o no para una amistad como en esa objeción es cierto, si de verdad no es posible esas consciencia artificial.

En general Archer plantea estas tres barreras, simplemente, dando por supuesto que suponen argumentos en contra de una eventual amistad entre máquinas y personas, que ésta no se puede producir en ausencia de una normativa moral, emociones o consciencia en el robot, pero no se centra específicamente en el problema de la amistad, en si esas tres características impedirían o no una amistad robot-persona, sino en la realidad o no de las barreras lo cual, eso sí, parece una ligera defensa implícita de que sí sería posible esa amistad.

Quizá por no adentrarse de manera central, o al menos eso me ha parecido a mi, en la viabilidad y, sobre todo, la bondad de una amistas entre robots y personas, su argumentación no me parece realmente muy definitiva, muy convincente en un sentido ni en otro.


A modo de conclusión: ¿Es el de la amistad robots-personas un debate prematuro?


En cualquier caso, podríamos preguntarnos, un poco como planteaba en el artículo 'Ética de los robots: ¿nos estamos ocupando de lo realmente importante?' si realmente estas cuestiones, digamos avanzadas, sobre robots son realistas, si son un debate útil o si nos estamos dejando arrastrar por la fantasía y la pura especulación.

Bueno, no voy a repetir de nuevo la argumentación de ese post, pero sí recordar algo que también he comentado repetidamente en este blog: con independencia de que consideremos o no que la relación que se establece entre una persona y un ser artificial pueda ser calificada de amistad, con independencia de que consideremos que esa eventual amistad es admisible o es una pura aberración, no olvidemos el fenómeno de la antropomorfización, la atribución de características humanas a animales, máquinas o seres inertes, es algo comprobado, es real y muy real y que se refuerza, probablemente, cuando aquello con que nos relacionamos es capaz de hablar y aparentemente entender, cuando es capaz de detectar nuestras emociones y simular que las entiende e incluso que también las posee.

 Y ya estamos en ese punto. No sólo los robots de tipo humanoide, también, por ejemplo, un agente conversacional, un chatbot o un altavoz inteligente, es capaz de disparar esa reacción en un humano. Es capaz de provocar una percepción antropomórfica por parte de la persona y es capaz de generar una cierta reacción emocional y afectiva por parte de esa persona. 

Se tratará, claro, de una transacción afectiva unidirecciónal, únicamente en la dirección de la persona hacia el robot. Y seguramente diremos que eso no es una amistad, que no es una relación similar a la que se establece entre humanos.

Vale. Seguramente tendremos razón en todo eso

Pero la reacción emocional en el humano, no lo olvidemos, se produce. Y, por tanto, vale la pena estar atentos, estudiar el fenómeno y cuidar de que hacemos lo correcto, desde el punto de vista psicológico y ético, con robots o seres artificiales en general.


lunes, 14 de marzo de 2022

Argumentarios sobre armas letales autónomas (LAWS)

Puede ser terriblemente oportuno, y digo terriblemente no al azar, escribir este post en estos días.

Sin embargo ha sido un poco el azar lo que ha determinado el que esto ocurra. El azar o, mejor, el curso de mis lecturas que inspiran una buena parte de los posts que constituyen este blog.

El caso es que, avanzando en la lectura del libro 'Robotics, AI and Humanity', me he encontrado un amplio tratamiento del tema de las armas autónomas o LAWS ('Lethal Autonomous Weapons Systems') y quisiera compartir algunas ideas sobre ellas y el debate ético que las rodea.


Las armas letales autónomas


Sin entrar en definiciones complejas, las armas letales autónomas son un tipo de máquinas dotadas de cierta inteligencia que les permiten de manera más o menos autónoma (es decir, sin intervención humana) la búsqueda de objetivos y su ataque.

Adoptan la forma de drones, algunos tan grandes y sofisticados que parecen aviones, de vehículos acorazados como pequeños, o no tan pequeños tanques, de misiles y, en algún caso, aunque creo que más para un cierto 'postureo' y propaganda mediática que para uso reales, la forma de robots humanoides.

Dadas sus características, en general las podemos considerar una forma, quizá la peor forma, de robots y están equipadas de capacidades procedentes de la inteligencia artificial.

Ética de las armas letales autónomas


Gregory Reichberg (izq) y Henrik Syse (der)
Parece casi paradójico, pero lo cierto es que, como en tantos temas relacionados con la robótica y la inteligencia artificial, alrededor de las armas letales autónomas existe también un debate de carácter ético.

Y es ese debate lo que origina este post.

En concreto, quisiera recoger los argumentos a favor y en contra de las armas letales autónomas que me encuentro en el capítulo firmado por Gregory Reichberg y Henrik Syse del Peace Research Institute Oslo (PRIO)  y titulado 'Applying AI on the Battlefield: The Ethical Debates'.

Veamos

Argumentos en favor de las armas letales autónomas


Si, aunque pueda sorprender, existen argumentos éticos a favor de las armas autónomas.

El primer argumento que se aduce es el de la racionalidad de las máquinas letales autónomas frente al caso de humanos o armas manejadas por humanos que se ven afectados por emociones. 

Al no ser susceptibles de las alteraciones causadas por las emociones, se podría confiar en que, si se encuentran bien programadas, se adherirían estrictamente a las reglas existentes para conflictos armados.

Esto podría evitar atrocidades que se cometen en las reglas y se podría evitar, por ejemplo, la muerte de civiles proponiéndose, además, que el robot militar podría, incluso, sacrificarse a sí mismo para salvar vidas de civiles, cosa que en un humano no existen garantías de que suceda, ni siquiera de que sea, esto es ya mi opinión, claramente exigible.

Finalmente, se argumenta la precisión en el marcado y destrucción de objetivos.

Argumentos en contra de las armas letales autónomas


Existen también, como cabe imaginar, abundancia de argumentaciones en contra de las armas letales autónomas.

En primer lugar se indica que, dado que las decisiones de tipo militar se producen en situaciones de alta imprevisibilidad, alta contingencia, se argumenta que es imposible dotar a las máquina autónoma de suficientes criterios para que la decisión que adopte sea correcta desde un punto de vista moral.

En segundo lugar, y de forma en cierto sentido paradójica, se alude a la falta de emociones de las máquinas autónomas. Digo que es paradójico porque, precisamente, la falta de emociones es un factor que se ha argumentado como ventaja ética de las máquinas como hemos visto. Aquellos que entienden que la ausencia de emociones es un factor en contra de las armas letales autónomas, defienden que precisamente las emociones son un ingrediente imprescindible de la agencia moral y que ayudan a un juicio apropiado acerca de lo que se debe o no se debe hacer.

Un tercer argumento conecta con la dignidad humana y con el principio según el cual en el caso de muerte ésta sólo debería ser producida por otro ser humano, nunca por una máquina decidiendo de manera autónoma.  La verdad es que resulta chocante hablar de dignidad cuando un ser humano mata a otro pero los autores nos explican que esto se produce en el contexto de guerra en la cual, supuestamente, existe un cierto código de honor y reglas de conducta.

Enlazando un poco con ese código de honor, el cuarto argumento en contra nos habla de la necesidad de igualdad moral ('moral equality') de los combatientes para que se puedan mantener ese código de honor y esas reglas que se supone informan la guerra actual. En el caso de que un combatiente sea una máquina, no parece que se mantenga esa igualdad moral.


Consideraciones prácticas


Los argumentos vistos anteriormente, son unos argumentos, digamos, basados en principios éticos.

Los autores del capítulo mencionado añaden otras consideraciones éticas que, más que de unos principios, parten de unas consideraciones prácticas sobre el estado actual de la tecnología o de si este tipo de armas producirán más bien que daño o al contrario.

De todas formas, no entraremos, al menos de momento, en ellas y remitimos al lector que quiera profundizar más al texto original.


Una consideración necesaria


Antes de concluir creo que es pertinente hacer una consideración previa.

Los argumentos a favor y en contra, de alguna manera, asumen que la guerra existe y existirá, que las armas existen y existirán, y que los seres humanos se matan y matarán y destruyen y destruirán objetivos del enemigo. Y es en ese contexto en que se valoran las armas letales autónomas.

Sin embargo el contexto es, desde un punto de vista ético y moral, en sí mismo inaceptable. Al menos, eso creo.

Desde luego, sabemos que las guerras han llenado todos los siglos y milenios de historia de la humanidad. Y, siendo realistas, y tenemos una terrible prueba en estos mismos días, no parece que las guerras vayan a desaparecer en un plazo corto. Quién sabe si, por desgracia, acompañen siempre a la humanidad.

Pero es difícil hablar de moralidad en entornos de guerra cuando la guerra, como concepto, debería ser, creo, considerada inmoral en sí misma, con independencia de que en casos particulares podamos entender e incluso justificar una guerra meramente defensiva. 

Y si la guerra la consideramos inmoral, resulta complicado aducir argumentos éticos en favor de armas aunque consideraciones pragmáticas que tienen que ver con es inevitabilidad aparente de la guerra.

Conclusión

 
Hemos visto una serie de argumentos éticos a favor y en contra del uso de armas letales autónomas, unos argumentos que creo que debemos entender supeditados a la siempre cuestionable pregunta de si una guerra puede en sí misma ser ética.

Y unos argumentos que, en cierto sentido, reafirman la dificultad de emitir juicios morales ya que, incluso en entornos de guerra y hablando de armas, las posiciones éticas no son nítidas y están sujetas a debate.

¡Qué no podrá ocurrir en otros debates éticos!

viernes, 11 de marzo de 2022

Roles de los robots sociales en educación y algunas consideraciones éticas

Una de las aplicaciones de impacto social positivo que se identifican en los llamados robots sociales, es la educación. 


Robots sociales en educación


Los robots sociales son un tipo de robots, con frecuencia de aspecto humanoide, y con capacidades de relación social no sólo por la voz sino también mediante gestos, movimiento, detección de emociones, etc. Y han sido, en efecto, utilizados con éxito en educación. Y no sólo educación en condiciones normales, sino también educación especial como en el caso de niños con trastornos del espectro autista.

Sin embargo, este uso, a pesar de los positivos resultados obtenidos en las experiencias hasta ahora realizadas, también está sometido a cierto escrutinio desde un punto de vista ético.


Roles de los robots sociales en educación


En el libro 'Robotics, AI and Humanity' hay un capítulo, firmado por Pierre Léna y dedicado al empleo de robots sociales en el aula.

En él cita el estudio llevado a cabo por Amanda J. C. Sharkey en 2016 y titulado 'Should we welcome robot teachers?'. En ese artículo, la autora identifica, sin pretender la exhaustividad, cuatro roles que un robot social puede jugar en las labores educativas, cuatro roles basados en experimentos reales y que suponen diferentes niveles de sustitución del profesor humano:


  • Profesor ('teacher'): En este escenario, el robot reemplaza completamente al profesor, al menos durante ciertos periodos de tiempo, y por lo tanto ejerce como figura de autoridad y fuente de conocimiento.

  • Compañero y par ('companion and peer'): En este caso, el robot no reemplaza al profesor y además puede precisar de la presencia de una figura humana. El robot se presenta a los niños como un compañero, como un par, otro alumno digamos. No implica autoridad y su participación en la enseñanza es implícita, no explícita.

  • Compañero-cuidador ('care-eliciting companion'): Muy similar al anterior pero en los que el robot tiene como misión identificar necesidades de cuidados en los niños

  • Telepresencia: el robot puede sustituir o complementar a un profesor pero actuando en remoto.


Consideraciones éticas


Sin pretender tampoco agotar todas las consideraciones, se identifican al menos tres grupos de consideraciones éticas relativas al uso de robots en las aulas.

La primera tendría que ver con la privacidad. Los robots están equipados con sensores que les permiten recoger información de muchos tipos. Los robots pueden recoger aspectos del comportamiento de los alumnos (si hablan, si se ponen de pie, etc), pueden también incluir elementos de reconocimiento de personas (típicamente, por reconocimiento facial) e, incluso, pueden captar emociones o deducir condiciones psicológicas. Todo ello eleva la necesidad de una reglas claras, y respetuosas, de la información a que pueden acceder y el uso que hacen de ella.

Otro segundo bloque, el que personalmente más me interesa, tiene que ver más con los aspectos de relación. Así nos encontramos la creación de vínculos emocionales entre los niños y el robot que, aunque tiene su valor positivo, también es controvertida e implica ciertos riesgos. Otros aspecto sería una forma de engaño ('deception') pero que no debe entenderse como un engaño intencionado sino el hecho de que el robot aparenta emociones, sentimientos, empatía comprensión y eso de alguna forma puede engañar a los niños y que éstos pongan en el robot unas expectativas no realistas. Otros tema en este bloque de las relaciones sería el riesgo del aislamiento del contacto humano, de que los niños se acostumbrasen, e incluso prefiriesen, la relación con robots mejor que con seres humanos.

A este respecto de las relaciones creo que viene al caso citar lo que dice el propio Léna al inicio de su capítulo:


Education is a special case, bacause it is fundamentally based on the relationship, involving love and emotions as well as knowledge between a fragile child an an adult.


La relación que se establece entre profesor y alumno, cuando hablamos de que los alumnos son niños, implica amor, emociones y además una parte más frágil en la relación, el niño. Si el robot asume el rol del profesor, de alguna forma pone en marcha o sustituye esa relación de amor y emociones con ese ser frágil que es el niño.

El tercer bloque de consideraciones éticas nos hablan de control y responsabilidad ('accountability') control y la responsabilidad. Cuando el robot ejerce como profesor, asume la autoridad correspondiente y, por tanto, una cierta capacidad de control sobre los alumnos. No vamos a extendernos más sobre ello, pero ya se entiende que conceder autoridad a una máquina, el robot, sobre unos humanos, los niños es algo que puede levantar reservas, incomodidades u oposición y que, incluso si se admite como positiva, parece implicar la necesidad de ciertas limitaciones y controles.


Conclusión


La verdad es que el tema, y el propio artículo mencionado, dan para muchos más comentarios, más detalles y más análisis pero, al menos en lo que respecta a este post, lo dejamos aquí.

Creo que queda claro que las diferentes experiencias realizadas hasta la fecha, indican que hay hueco para el uso de robots en educación, que en algunos casos puede ser necesario (por ejemplo, por falta de profesores) o muy positivo (como en el caso de niños autistas) pero que debe ser realizado con conciencia, con precaución y estando atentos a las consideraciones éticas.



miércoles, 9 de marzo de 2022

Ética de los robots: ¿nos estamos ocupando de lo realmente importante?

Cuando hablamos de robótica e inteligencia artificial, especialmente cuando intentamos lanzar una mirada ética y social a sus implicaciones, podemos caer, probablemente caemos con frecuencia, en una actitud quizá demasiado especulativa, demasiado en el aire, poco pegada a los problemas de la vida real.


Algunos problemas de la ética de los robots y los algoritmos


¿A qué me refiero?

Pues me refiero a temas tan interesantes, pero probablemente tan lejanos, como la posibilidad o no, de que se llegue a conseguir una super-inteligencia o que se alcance la famosa singularidad, y qué podríamos hacer los humanos al respecto, bien para que ese fenómeno no ocurra o, bien para que si al final se alcanza, podamos mantener alguna forma de control.

Nos preocupamos sobre temas tan interesantes como si los robots y las máquinas pueden llegar o no a tener consciencia o libre albedrío y si, siendo así pueden ser considerados agentes morales y también sujetos de derechos.

El lector habitual de este blog reconocerá, de hecho, que son temas que abordo con frecuencia desde hace unos meses porque, realmente, me parecen muy interesantes, diría que apasionantes.


Sobre los problemas realmente importantes


Sin embargo, si nos ocupamos de esos temas puede que estemos mirando demasiado lejos. Puede que nos estemos concentrando en posibilidades que, además de inciertas, sean muy probablemente lejanas o muy lejanas.

¿No deberíamos ser más realistas? ¿No deberíamos concentrarnos en los problemas de hoy, del aquí y el ahora?

Dentro del libro 'Robotics, AI and Humanity' que me encuentro leyendo estos días, hay un capítulo, firmado por Joachim von Braun y Heike Baumüller  del ZEF (Center for Development Research) de la Universidad de Bönn. en que habla de la inteligencia artificial y los robots en relación con la pobreza y, al principio del mismo, nos hacen esta advertencia:


it actually seems that attention to robots' rights is overrated whereas attention to implications of robotics and AI for the poorer segments of societies are underrated.


Quizá sea comprensible la posición de los autores. Para ellos, empeñados en estudiar el desarrollo de los países o problemas como la pobreza, puede resultar casi tristemente cómico ver cómo otros dedicamos nuestro tiempo, y en teoría con intención ética y social, a cuestiones tan alejadas de problemas, algunos tan duros como la pobreza, que afectan ya a millones de personas.

Creo que la llamada de atención es pertinente. Muy pertinente.

Debemos esforzarnos en dar respuestas ya, hoy mismo, a problemas que afectan a las personas. Debemos afrontar temas como la pobreza, el envejecimiento, el deterioro medioambiental, la enfermedad, la marginación...

Es una obligación moral y práctica.

Sin duda.


Motivos para la especulación


Y sin embargo...

Y sin embargo, no creo que debamos abandonar tampoco los análisis algo más futuristas y especulativos. Creo que no debemos abandonarlos por varias razones.

En primer lugar, porque tenemos que anticiparnos. Porque, aunque no sabemos si es posible o no la superinteligencia, aunque no sabemos si es posible o no la consciencia de los robots, caso de que llegase una u otra, el impacto sería gigantesco y debemos estar preparados. Sería desastroso, por tardío, intentar reaccionar cuando ya fuesen una realidad. Y tenemos que anticiparnos porque, si concluyésemos como humanidad que no deseamos esas posibilidades, probablemente habría que empezar a tomar medidas desde ya.

En segundo lugar porque, aunque parece lejano, algunas consecuencias tiene ya. Puede parecer vano, puro divertimento metafísico (en realidad ético), el debatir hoy día sobre la agencia moral o no de los algoritmos y los robots. Y sin embargo, la agencia es un concepto importante para intentar definir con cierta lógica, no sólo filosófica sino incluso jurídica, las responsabilidades (en el sentido de 'liability', rendición de cuentas) por las actuaciones de máquinas inteligentes. Y esa definición de responsabilidad, entendido en un sentido legal y normativo se está tratando ya en ámbitos como el de la Unión Europea y dará lugar en un plazo que creo no superará los dos años, a directrices que se traspondrán en leyes de los países comunitarios.

Y en tercer lugar, porque esos análisis, en cierto modo futuristas, son una forma de innovación. En los cursos que imparto sobre innovación, les hablo a mis alumnos del concepto de organización ambidiestra (una organización que gestiona de manera diferente los negocios maduros que constituyen su 'core business' y los negocios emergentes) o, últimamente, la empresa invencible con su porfolio de explotación y exploración que viene a ser otra forma de decir más o menos lo mismo: diferenciar la gestión de los negocios actuales, de corto plazo, de los de futuro. 


Conclusión: explotar y explorar también en ética de los robots


Probablemente, debemos hacer de nuestra sociedad, una sociedad ambidiestra, invencible. La idea sería ser también ambidiestros en los temas éticos y sociales. 

Debemos explotar. Debemos concentrar esfuerzos en solicitar y obligar a un uso responsable de la inteligencia artificial y la robótica. Debemos concentrar esfuerzos ya en aplicaciones de la robótica y la inteligencia artificial para resolver los grandes problemas del mundo (la pobreza, el cambio climático, los desequilibros, las enfermedades...) o para conseguir algoritmos más eficientes y con menos huella de carbono. Debemos seguir esforzándonos en conseguir algoritmos más potentes o en alcanzar, si fuese posible, la deseada explicabilidad de los mismos.

Pero también debemos explorar. Debemos poner las luces largas para analizar qué podemos conseguir con estas u otras tecnologías, para decidir si lo queremos realmente o no y, en caso afirmativo, cómo conseguirlo. Un como conseguirlo que tiene una vertiente claramente tecnológica pero que también es un cómo conseguirlo desde el punto de vista de aplicación, de valores, de regulación. Y en ese sentido, no me parece baladí, pensar a años vista, especular e imaginar. 

Es la forma de crear el futuro y, además, el futuro que realmente deseamos.  


martes, 8 de marzo de 2022

La comunicación no verbal con María Calvo del Brío

'Comunicación no verbal para humanos curiosos' es, como el título indica, un libro sobre comunicación no verbal, pero muy centrado en lo que, a su vez, el subtítulo anuncia, es decir, conocer "el origen ancestral" de los gestos, como base para su gestión.

Comienza con una 'Introducción' en que la autora por un lado nos desvela el porqué de su interés personal en la comunicación no verbal y por otro nos identifica cinco razones por las que interesa la comunicación no verbal, o mejor, qué puede aportar su libro al respecto. A continuación, el cuerpo del libro se desarrolla en siete capítulos como sigue:
  • '1. ¿Qué nos desvela la comunicación no verbal?:' Se adentra un poco en las raíces, antecedentes y contexto de la comunicación no verbal, poniendo en relación, por ejemplo, la comunicación humana con la comunicación animal y relacionando también las emociones con el cuerpo, lo que le lleva a tratar temas como el sistema límbico o reacciones instintivas como la huida o la lucha. Luego, por decirlo de alguna forma, sube el nivel para atacar temas más complejos y, si se quiere, más humanos, como son la cultura, el lenguaje hablado, las normas sociales o la moral.

  • '2. Qué dicen los macrogestos del cuerpo:' analiza los grandes gestos que realiza el ser humano que afectan fundamentalmente al tronco y las extremidades. Primero se ocupa de la propia postura vertical del ser humano, desde su origen evolutivo hasta su influencia en materia de lenguaje no verbal en aspectos como la orientación de pies y piernas, la apertura de éstas últimas o las expresiones de aceptación o rechazo. Luego analiza los saludos, incluyendo su origen y variedades culturales y dedicando espacio, en concreto, a besos y abrazos. Luego se centra en manos y brazos. Continua con una tipología de gestos, pasa luego a los movimientos de cabeza, como la afirmación o negación, y cierra el capítulo con un breve análisis de la comunicación no verbal cuando estamos sentados.

  • '3. Qué dicen los gestos del rostro uy los microgestos:' Un capítulo centrado en los gestos que se hacen con el rostro. Así, nos habla de la mirada y el contacto ocular o el uso de párpados y cejas. Luego salta a la expresión facial y cómo comunica emociones. A continuación dedica un espacio generoso a la sonrisa y cierra el capítulo con la mentira y sus manifestaciones gestuales.

  • '4. El vestido:' Un cierto cambio de tercio pasando de los gestos al atuendo y la modificación del aspecto externo. Primero se detiene en el análisis del color, para luego abordar el uso del vestido como lenguaje. A continuación dedica espacio a otras formas de modificar nuestro aspectos exterior como el maquillaje, los tatuajes, el peinado, los perfumes o la barba. Y finaliza analizando el concepto de belleza y algunos estereotipos por los que se ve afectado.

  • '5. La voz:' Un capítulo cortito dedicado a la voz. Así, analiza la conexión de la voz y la emoción y luego repasa diferentes características de la voz y su utilización, como el tono, la entonación, el timbre, la dicción, la intensidad, la velocidad o el uso de los silencios.

  • '6. La comunicación no verbal en escenarios concretos:' De alguna forma es una visión más aplicada, centrada en situaciones muy específicas. En concreto, analiza el lenguaje no verbal en el cortejo y la seducción, en la negociación, en entrevistas y en presentaciones y finaliza, muy con el signo de los tiempos, hablando de la comunicación a través de pantallas.

  • '7. Tú eliges:' Invita al lector a pasar a la acción y aplicarse a sí mismo lo aprendido, ejerciendo la autora, como ella misma reconoce, un poco como 'coach'. Nos recuerda nuestra capacidad y la de nuestro cerebro para cambiar. Nos invita a conocernos a nosotros mismos y a elegir, a la autoestima, a la gestión de las emociones, a cuidar nuestro cuerpo y a adquirir unos buenos hábitos de comunicación.
Y finaliza con un muy breve epílogo y una invitación a seguir en contacto en 'Epílogo: un espacio para conectar'.

'Comunicación no verbal para humanos curiosos' muestra un enfoque diferente al habitualmente utilizado en libros sobre comunicación, al menos los que personalmente me he encontrado. Un enfoque que se orienta no tanto a dar consejos o recetas para presentaciones o para comunicación directiva (aunque las recomendaciones sí que están presentes aquí y allá), sino, más bien, a un análisis que calificaría, no sé si acertadamente, de antropológico y psicológico, riguroso en cualquier caso, en el que la autora busca constantemente el origen y la explicación subyacente, con base científica, a nuestra comunicación no verbal.

Un libro que, a pesar de lo anterior, resulta muy fácil de leer, muy cercano, y de fácil traslación a nuestra actividad diaria.

Muy interesante.
 
María Calvo del Brío 

(Fuente: Ficha de autor en Almuzara)

María Calvo del Brío
María Calvo del Brío es formadora en habilidades de comunicación para empresas desde hace más de veinte años. Imparte clase en diversas universidades y en escuelas de negocios como EOI y ESIC, donde ha mentorizado a cientos de emprendedores y startups, preparándolos para presentar sus proyectos en foros de inversión. Participa como conferenciante en congresos y jornadas. Es socia fundadora de Comunicación en forma y Storytelling visual.

Se licenció en Filosofía y Ciencias de la Educación, es máster en coaching personal y ejecutivo, y en inteligencia emocional, por la Universidad C. J. Cela, practitioner en PNL y se certificó en Gestión del Cambio por HUCMI.

Su pasión por el lenguaje no verbal y las emociones, junto con su experiencia, le llevan a investigar y escribir sobre este tema desde un enfoque evolutivo y diferente.

Puedes saber más de la autora consultando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @mariacalvobrio.

Ficha técnica:

EDITORIAL: Almuzara
AÑO: 2021 
ISBN: 978-8418709692
PAGINAS: 288


lunes, 7 de marzo de 2022

Robots y empleo: el caso del offshoring

Una de las varias 'preguntas del millón' cuando se habla de automatización y robotización es si ésta afectará al empleo y en qué forma.

Existe el debate, con informes y visiones encontradas, sobre si el efecto neto de la automatización es de destrucción de empleo o, por el contrario, si los nuevos empleos que se crean suplen con ventaja a los que se destruyen proporcionando un aumento neto del empleo.

Pero aparte de ese efecto neto, que podríamos calificar como 'global', existen otros aspectos relevantes a tener en cuenta y que en lo que vamos a comentar, puede afectar de una forma más local, a nivel de país.


El offshoring


Desde hace ya no pocas décadas, y se ha mantenido prácticamente hasta el presente, las empresas de los países más desarrollados han adoptado con frecuencia una estrategia de offshoring. Se trata, no sólo de externalizar trabajos o procesos que se consideran poco diferenciales sino, además, hacerlo a empresas situadas en el extranjero, con frecuencia en países emergentes o en vías de desarrollo, siendo el caso paradigmático la externalización hacia la India.

La lógica económica es clara: en esos países los costes laborales son mucho más bajos, en parte por un menor nivel de vida, y en parte, todo hay que decirlo, por una menor protección social de los trabajadores. A estos costes muy inferiores, se añade, además, una capacitación importante de sus profesionales y una volumen muy alto de masa laboral.

Aunque se puede pensar que, en cierto sentido, los países desarrollados se están aprovechando de los países emergentes, y hasta cierto punto quizá sea cierto, hay que reconocer que en muchos casos se trata de una relación win-win: la empresa del país desarrollado obtiene unos costes inferiores y la empresa del país emergente un buen negocio a precios que, para ellos, son razonables. A nivel individual, de personas, incluso está descrito que para los trabajadores del país emergente, es una opción más que deseable trabajar en este tipo de empleos ya que, comparativamente, están bien remunerados,

De hecho, y a puro nivel de empleo, realmente, en esta relación de offshoring pierden los trabajadores de los países desarrollados y ganan los de los países emergentes ya que el empleo se desplaza hacia los países emergentes.


Automatización y offshoring.


Y ahora entra en escena la automatización, la automatización masiva, que puede hacer que cambien las tornas.

Con mucha frecuencia, las actividades que se externalizan, que son objeto del offshoring, son tareas o procesos completos de no muy alta cualificación. procesos y tareas manuales pero, en general, muy procedimentados y burocráticos. Es además bastante lógica y deseable esa procedimentación en una relación de offshoring porque facilita el acuerdo entre partes, el establecimiento de niveles de servicio y la monitorización del 'performance'.

Sin embargo, el hecho de que estemos hablando de tareas manuales pero procedimentadas, las convierten en claro objetivo de la automatización.

En muchos casos, de hecho, la automatización la han liderado los propios países emergentes. Así, es paradigmático ver cómo una buena parte de los líderes y técnicos del campo del RPA ('Robotic Process Automation') provienen precisamente de la India. Es lógico: reciben mucho trabajo consistente en tareas repetitivas de procesamiento de documentos y aplicaciones y, por su propia eficiencia, automatizan el trabajo siendo RPA la tecnología adecuada para esa labor. Con ello pueden ofrecer mejores resultados en, por ejemplo, un contrato de BPO ('Business Process Outsourcing') y, al tiempo, conseguir mayores márgenes.

Sin embargo, y paradójicamente, esto se puede volver en su contra.


Inshoring

 

Como describía en mi libro 'Robots en la sombra', hablando de nuevos modelos de negocio ligados, precisamente de los robots software y, en concreto también de RPA, la posibilidad de automatizar de manera efectiva esos procesos y tareas objeto de offshoring en el pasado, está haciendo que las compañías de los países desarrollados se planteen dejar de externalizar esos trabajos y, en su lugar, proceder a reinternalizarlos ('inshoring') ya que su ejecución de manera automatizada no es gravosa y no obtienen especiales ventajas competitivas llevándolos al exterior.

Leyendo el libro 'Robotics, AI and Humanity' me encuentro menciones a informes que van en la misma línea, hablando no ya de robots software, sino de automatización y robotización en general. En concreto, en el libro se menciona una medida del offshoring realizada por Feenstra y Hanson ('Globalization, outsourcing and wage inequality') basada en la inversión en robótica.

Con esa base se proporciona algún número y, en concreto, concluye:


when focusing on the more recent years 2010-2016 - i.e. a period characterised by rapidly rising investments in robotics- the results demonstrate a negative association of robotics investments (net of depreciation) with the growth of offshoring.


Es decir, se observa un menor crecimiento del offshoring a medida que aumenta la inversión en robots. Cierto que hablamos de una correlación, no necesariamente de una causa-efecto y cierto que la medida es ligeramente indirecta, pero aún así, estos datos, unidos a una cierta lógica, parecen confirmar lo que decíamos: a medida que aumenta la automatización, la robotización, disminuye la tendencia al offshoring.

No solo eso, probablemente, aparte de no externalizar nuevas tareas en el extranjero, también las tareas  y procesos previamente externalizados se reincorporan al seno de la empresa ('inshoring').


Conclusión


Parece, pues, que aparte del eventual impacto neto que pueda o no tener la automatización en el empleo, sí puede además producir una redistribución de ese empleo.

Y, quizá paradójicamente, quizá tristemente, la tendencia podría ser que el empleo volviese a los países desarrollados en detrimento de los países emergentes.

Algo a tener muy en cuenta cuando pensamos en términos sociales y globales.


viernes, 4 de marzo de 2022

La mirada filosófica a la Inteligencia Artificial de Susan Schneider

'Inteligencia Artificial: una exploración filosófica sobre el futuro de la mente y la conciencia', traducción de libro 'Artificial you' es una arriesgada aventura intelectual, de base filosófica, que se centra en algunos de los aspectos más polémicos y al tiempo fantásticos relacionados con la inteligencia artificial, fundamentalmente la posibilidad o no de que las máquinas puedan llegar a ser conscientes y la posibilidad de llegar, de alguna manera, a fusionar nuestro cerebro con una inteligencia artificial o 'descargar' la mente en otro soporte diferente de nuestro cuerpo actual.

El libro se abre con una breve 'Introducción: Una visita al Centro para el Diseño de la Mente' en que plantea una escenario de ciencia-ficción (en 2045) y abre el tema del llamado 'diseño mental' que ocupa el libro y plantea las temáticas que lo van a ocupar como si son posibles las máquinas conscientes y si querríamos llegar a fusionarnos con una inteligencia artificial.

A continuación, el cuerpo del libro se desarrolla en ocho capítulos, como sigue:
  • '1. La era de la inteligencia artificial' un capítulo corto en que expone algunas de las teorías más extremas sobre el impacto de la inteligencia artificial en el mundo. Así, resume la teoría de la singularidad de Kurzweil, la llamada 'falacia de los supersónicos' bautizada así por Michael Bess que espera que la tecnología no sólo cambie a las máquinas sino también a los propios humanos y, finalmente, el transhumanismo.

  • '2. El problema de la inteligencia artificial' Aborda el problema de la conciencia (quizá sería mejor decir 'consciencia') comenzando por su formulación por el filósofo David Chalmers en el llamado 'problema difícil'. Luego resume las dos posturas principales, el naturalismo biológico y el tecnooptimismo, la primera de las cuales niega la posibilidad de consciencia en máquinas mientas la segunda lo afirma. Tras esto fantasea con la posibilidad de que en un futuro se pueda de alguna manera rejuvenecer el cerebro y finaliza con una serie de consideraciones y 'medio conclusiones' razonando sobre la posibilidad o no de crear seres 'isomorfos' de un humano, donde éstos pudiesen continuar su vida cuando el cuerpo envejeciese,

  • '3. Ingeniería de la conciencia' examina algunos planteamientos que podrían predisponernos a favor o en contra del desarrollo de una consciencia en las máquinas. En primer lugar razona que quizá, simplemente no nos interese que las máquinas sean conscientes y no tanto por motivos éticos como prácticos. Introduce también la posibilidad de que si las máquinas llegan a ser conscientes, pudieran convertirse en sujetos de derecho y eso a lo mejor no interesa a sus fabricantes. Luego razona en términos de seguridad, si el hecho de que las máquinas fuesen conscientes podría convertirlas o no en mas seguras y, en general, por qué podríamos querer unas máquinas conscientes. Finaliza, de nuevo en el terreno más extremo, especulando sobre una eventual fusión de los humanos con las máquinas.

  • '4. Cómo cazar a un zombi de la IA: someter a las máquinas a pruebas de conciencia' Razona y especula sobre la posible forma de comprobar si una máquina realmente en consciente. Primero expone una prueba desarrollada por la autora en colaboración con el astrofísico Edwin Turner y que consiste en una batería de preguntas. Luego analiza las pruebas de un eventual chip cerebral. A continuación expone la teoría de la información integrada de Tononi y su eventual uso como prueba de consciencia. Sigue con unas consideraciones éticas y ofrece seis recomendaciones. Y finaliza con una nueva exploración de la eventual fusión de mente y máquina.

  • '5. ¿Podrías fusionarte con una IA?' Esa idea de la fusión ocupa ahora este corto quinto capítulo por completo y lo hace razonando sobre dos temas principales: qué es una persona y si se puede considerar de alguna forma que la mente es una forma de software según defienden las teorías que la autora denomina 'patronismo'.

  • '6. Hacerse un mindscan' Sigue analizando la idea de la fusión con las máquinas partiendo de lo que se cuenta en la novela de ciencia ficción 'Mindscan' de Robert Sawyer, donde el protagonista, enfermo sin posibilidad de cura, sufre la carga de la configuración de su cerebro en otro cuerpo y a la luz de esa historia se analizan algunas problemáticas como la reduplicación y la dimensión temporal o la dependencia del sustrato físico. Finaliza apostando por lo que denomina la 'humildad metafísica' que aboga por avanzar en el diálogo público mediante la teorización metafísica.

  • '7. Un universo de singularidades' Trabaja con la posibilidad de que en otras partes del universo ya se haya producido la transición de una inteligencia biológica a una inteligencia sintética en línea con lo que sugiere la teoría de la singularidad. Primero se imagina ese cosmos post-biológico y luego aborda el problema del control de esas máquina super-inteligentes por parte de los humanos. A continuación habla de la búsqueda de inteligencia extraterrestre (proyecto SETI) y dedica bastantes páginas a imaginarse y razonar sobre cómo serían esas super-inteligencias extraterrestres y post-biológicas.

  • '8. ¿Es tu mente un programa de software?' Tras introducir la historia de Kim Suozzi, una declarada transhumanista que, al padecer de un tumor cerebral, se sometió a un tratamiento de criónica con la idea de, tras su muerte, poder recuperar su mente cuando eso fuese técnicamente posible, vuelve al tema de la mente entendida como un software que funciona sobre el hardware del cerebro y con ello la posibilidad de una eventual inmortalidad digital. Repasa algunas teorías que tratan el tema de la relación mente-cuerpo, como el pansiquismo, el dualismo sustancial, el fisicalismo, el dualismo de propiedades y el idealismo. Y hace a continuación una evaluación de esa idea de la mente como software y como instanciación de un programa
Y finaliza con 'Conclusión: La vida más allá de la muerte del cerebro' un breve texto final que entre otras cosas sugiere, desde un punto de vista ético, asumir que una inteligencia artificial suficientemente sofisticada puede ser consciente.

'Inteligencia Artificial: una exploración filosófica sobre el futuro de la mente y la conciencia' es un libro sugerente, de entretenida lectura y que invita al debate y la reflexión. Sin embargo, desde un punto de vista intelectual, me produce un efecto un poco ambivalente. En algunos momentos parece serio, racional y analítico pero en otros, casi diría que en la mayor parte, creo que se deja arrastrar por la fantasía y la especulación sin una base sólida y en escenarios, desde luego, muy alejados de nuestra realidad actual.

Se puede disfrutar de su lectura, pero creo que conviene ser crítico y contrapesarla con otras lecturas más técnicas y pegadas al terreno. 
 
Susan Schneider 

(Fuente: Selección de Wikipedia)

Susan Schneider
Susan Schneider es una filósofa y académica estadounidense. Es la directora fundadora del Center for the Future Mind de la Florida Atlantic University, donde también ocupa la Cátedra William F. Dietrich. Schneider también ocupó la Cátedra Baruch S. Blumberg de la NASA / Biblioteca del Congreso en Astrobiología, Exploración e Innovación Científica en la NASA y la Cátedra de Académico Distinguido en la Biblioteca del Congreso.

Susan Lynn Schneider se graduó de la Universidad de California en Berkeley en 1993 con una licenciatura (con honores) en Economía. Luego estudió en la Universidad de Rutgers donde trabajó con Jerry Fodor, graduándose con un doctorado en Filosofía en 2003.

Schneider enseñó en el Moravian College como profesora asistente de filosofía de 2003 a 2006. Fue profesora asistente de filosofía en la Universidad de Pennsylvania de 2006 a 2012. Se convirtió en profesora asociada de filosofía y ciencias cognitivas en la Universidad de Connecticut en 2012, donde fue la directora fundadora del grupo de IA, Mente y Sociedad ("AIMS"). Además, ha realizado investigaciones en la Universidad Nacional de Australia (2013), el Instituto de Estudios Avanzados de Princeton, Nueva Jersey (2016-2017) y en el Centro Interdisciplinario de Bioética en la Universidad de Yale. (2015-2019).

En la Biblioteca del Congreso en Washington, DC ocupó la cátedra de Distinguished Scholar (enero-junio de 2019) 9​ y la Cátedra Baruch S. Blumburg de la NASA en Astrobiología, Exploración e Innovación Tecnológica (octubre de 2019-). En 2020, Schneider aceptó el puesto de Profesora de Filosofía de la cátedra William F. Dietrich en la Florida Atlantic University (FAU), designada conjuntamente para el FAU Brain Institute.

Puedes saber más de la autora visitando su página oficial, consultando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @DrSueSchneider.

Ficha técnica: