lunes, 31 de julio de 2023

Gaming mentality o tomárselo como un juego: un inesperado riesgo de la tele-operación

En general, cuando hablamos de gamificación lo hacemos en un sentido positivo, como una forma de hacer más atractivas ciertas aplicaciones.

Pero puede que no siempre sea así...


Gamificación


La gamificación consiste, más o menos, en añadir elementos propios de los juegos (la competición, los puntos, los premios, etc) en actividades, digamos, 'serias', actividades propias del negocio o de la administración.

Y se hace porque gamificar convierte a la actividad en más divertida, más atractiva, más estimulante, más motivantes, que capta mejor nuestra atención. Un caso sencillo y común es, en el ámbito de la formación, especialmente la formación online, usar 'badges' a modo de premios o medallas cada vez que el alumno consiga algún objetivo del curso. Ese premio actúa como estimulante y anima al estudiante a seguir y a esforzarse. Y por, tanto, es positivo.

Vale, dejémoslo aquí un momento, y hablemos de tele-operación.


Tele-operación


La tele-operación, por su parte, es una forma de manejo de máquinas en que un humano conduce, desde alguna especie forma de lugar de mando, una máquina que en realidad está funcionando en otro punto, eventualmente muy lejos de donde se encuentra el humano que la controla.

En ocasiones, esa tele-operación se produce con una separación espacial muy escasa entre el lugar de mando y una máquina, como ocurre en el caso de los denominados robots quirúrgicos, o en los pequeños drones de tipo RPA para entretenimiento. En otros casos esa tele-operación se produce en mayores distancias como puede ocurrir en robots de exploración minera, robots de rescate o en drones contra incendios. Y en algunos casos la distancia es muy grande como pudiera ser en exploración espacial.

En ciertas situaciones, cada vez más probablemente, se intenta sustituir la tele-operación por máquinas completamente autónomas, es decir, máquinas que funcionan por sí solas sin necesidad de ser conducidas por humanos. Con esto daríamos el salto desde una tele-operación a un verdadero robot con arreglo a los criterios de lo que es un robot que mencionábamos en 'Tres caracterizaciones de los robots'.

Pero quedémonos ahora en la tele-operación, en el manejo de distancia de máquinas por un humano y exploremos un ámbito concreto: el militar. 

Y antes de volver a la gamificación, pensemos en la tele-operación en el ámbito militar.


Tele-operación militar


Si, el ámbito militar es un buen campo de aplicación de la tele-operación.

También se utiliza aquí la autonomía, dando lugar, por ejemplo, a las denominadas armas letales autónomas (LAWS, 'Lethal Autonomous Weapon System'). Mucho se ha hablado y hablará de este tipo de máquinas y de sus implicaciones éticas.

Pero antes de llegar a las armas autónomas, tenemos las armas tele-operadas. Así, son cada vez más empleados, por ejemplo, los drones, tanto tele-operados como autónomos. Y lo podemos ver, por desgracia, en situaciones tan actuales como la guerra de Ucrania.

Es un campo que daría mucho que hablar, y mucho que lamentar, pero me voy a centrar en un tema muy específico: la denominada mentalidad de juego 'Gaming mentality' que, en el fondo, es lo que inspira este post.


'Gaming mentality' o tomárselo como un juego


Me encuentro este concepto de 'gaming mentality' leyendo el libro 'Tecnofilosofía' de Aníbal Astobiza, y se trata de una situación que surge en el marco del uso de máquinas, y máquinas tele-operadas en el caso de guerra o acciones militares. 

En esa situación existen soldados que no actúan realmente en el campo de batalla sino que manejan, tele-operan, desde lejos, desde un lugar de mando, armas destructivas como pueden ser drones de ataque. Y la forma de manejar esos drones, si lo pensamos bien, no es demasiado diferente de cómo podemos manejar unas armas similares pero virtuales en una consola, en un videojuego. Aunque estemos manejando dispositivos reales, con capacidad de destrucción real, la persona que los maneja no percibe algo muy diferente a lo que percibiría en una videoconsola y un videojuego.

Y ahí es donde se puede desarrollar esa mentalidad de juego que, como nos explica sucintamente, Aníbal Astobiza, consiste en:


trivializar las consecuencias de la guerra al verla como una especie de juego.


Claro, al manejar la máquina destructora a distancia, al percibir de una forma lejana (o nula) el sufrimiento que produce, y al utilizar mecanismos similares al de un juego, es fácil caer, de forma probablemente inconsciente, en restar importancia a las acciones se están realizando y a sus consecuencias. Podemos, inadvertidamente, convertir la destrucción y la muerte en poco más que un juego.

No solo hay un distanciamiento emocional, es que quizá dejemos de percibir la realidad, y por tanto de tomarnos en serio, cosas tan graves como acabar con vidas humanas o con sus medios de supervivencia.

Probablemente, ese distanciamiento, un distanciamiento emocional en cuanto a implicación y en cuanto a empatía,  que se produce a la interacción mediada por la tecnología, afecta también a interacciones más comunes como pueden, por ejemplo, las intermediadas mediadas por redes sociales. Pero quizá, en el caso de armas tele-operadas, se alcanza un punto culminante o al menos uno especialmente estremecedor desde el punto de vista ético y humano.


Conclusiones


Quizá en el caso que nos ocupa, el uso de armas tele-operadas, la mejor solución sea, simplemente (simple de expresar, que no de conseguir) eliminar la necesidad de armas, tele-operadas, autónomas, o de cualquier tipo.

Pero ante la imposibilidad práctica de esta posibilidad, al menos a corto plazo, y ante la posibilidad de que esa 'gaiming mentality' invada otros campos, a lo mejor debemos preocuparnos de cómo eliminar esa mentalidad de juego cuando estamos tratando con cosas importantes, como pueden ser las vidas humanas.


miércoles, 26 de julio de 2023

Tres caracterizaciones de los robots

Recientemente publicaba un artículo en este blog en que me hacía eco de la dificultad de definir la disciplina de la Inteligencia Artificial y daba alguna opinión acerca de los esfuerzos que, al respecto, se están haciendo en las instituciones de la Unión Europea de cara a cerrar el texto de la AI Act.

Pero si es difícil definir inteligencia artificial, no le va en zaga hacerlo con el término 'robot', algo que ya he recogido en varias de mis publicaciones y, en concreto, en este mismo blog, donde hace ya unos meses lo comentaba en el artículo 'Una definición formal pero insuficiente de robot'.


Robot: un concepto sin consenso


Y es que, realmente, no existe una definición autorizada y, sobre todo, un consenso, acerca de lo que es un robot.

Por eso, dentro de en mi proyecto 'The robot notes', consistente en una larga serie de videos para explorar y explicar en una visión 360 grados los aspectos más relevantes de la robótica, algunos de los primeros videos de la serie se dedicaban, precisamente, a intentar centrar qué es un robot, y constatar que no existe, realmente, una definición universalmente aceptada. 

En concreto, en el primero de los videos de la serie, el titulado 'The robot concepts' ('Los conceptos de robot') comentaba algunas de las formas de entender o definir qué es un robot. Puedes ver a continuación ese vídeo.



Aunque en el vídeo se comentan algunas de las propuestas, lo cierto es que hay muchas más y ya no se trata sólo de una mera formalización en un texto convincente, es que realmente lo que hay es debate de fondo sobre lo que es un robot y lo que no lo es.


Definición versus caracterización


Lo cierto, y creo que ese es el origen del problema, es que realmente nadie, ni la industria, ni los investigadores, ni los escritores, se ha preocupado realmente de aplicar de forma rigurosa el término robot o de reflexionar seriamente sobre él. Simplemente, han ido asignado ese nombre por motivos técnicos, comerciales o artísticos, o incluso, sin un razonamiento muy concreto, sino por ocurrencia o antojo, a diferentes artefactos.

Como no ha habido ni guía ni criterio único, en muchos casos ni siquiera rigor, es muy difícil a posteriori dar a luz una definición que abarque todo aquello a lo que se ha llamado robot y satisfaga a todos.

Ante la dificultad, casi diría la imposibilidad, de consensuar esa definición amplia, rigurosa y universalmente aceptada del término robot, quizá la única opción sea hacer una suerte de ingeniería inversa para intentar extraer las características comunes que exhiben todos los artefactos a los que denominamos robot y así, al menos, hacernos una idea y entendernos mejor

Esto es lo que explicaba en el video 'Reverse engineering the robot concept' ('Haciendo ingeniería inversa del concepto de robot'):



En cualquier caso, esa ingeniería inversa no deja de ser un ejercicio hasta cierto punto voluntarista y las características que se identifiquen, son las que de forma mayoritaria y con mayor frecuencia están presentes aquellas 'cosas' que llamamos robot, pero no necesariamente están presentes siempre y no necesariamente todo el mundo estaría de acuerdo en ellas.

Esto da origen a lo que denomino en este artículo 'la caracterización', esto es, la identificación del conjunto de características más habituales en los robots y hasta cierto punto definitorias.

 

Un primera caracterización


Una primera caracterización la hice ya en mi libro, 'Robots en la sombra' que trata sobre robots software y donde intentaba, sobre todo, recoger una serie de características que, siendo comunes a robots físicos y robots software, me ayudasen, sobre todo en el caso de estos últimos, a explicar por qué a algunos tipos de software se les llama robots y a otros, la mayoría, no. Las seis características que allí proponía son:


  • Artificiales
  • Adaptables
  • Actuantes sobre el entorno
  • Autónomos
  • Sustitutos de personas
  • De actuación similar a personas


De estas seis, las cuatro primeras son, creo, muy fáciles de entender y admitir para cualquier tipo de robot. Las dos últimas, que además son las más ambiguas y debatibles, aunque aplicables también a robots físicos, tienen especial interés a la hora de delimitar, dentro del campo del software, a que llamamos robot y a qué no.


Una segunda caracterización


Más adelante, y de nuevo dentro del proyecto 'The robot notes' he realizado otra caracterización de robot, bastante próxima a la anterior, aunque no exactamente igual



En este caso, parto de la idea de un agente, un ente que percibe a su entorno mediante sensores y actúa sobre él mediante actuadores, y además, distingo entre las características que considero imprescindibles y aquellas que sólo son adicionales (optativas, en cierto sentido, aunque refuerzan la idea de robot).

Las obligatorias serían:


  • Artificial: construida por el hombre o por otras máquinas, no biológico, por tanto.
  • Inteligente: no en el sentido de utilizar necesariamente inteligencia artificial, sino indicando que sus acciones son coherentes con sus objetivos y con lo que perciben en el entorno.
  • Autónomo: funcionan por si solos sin ser manipulados o pilotados directamente por un humano.
  • Adaptable: comportamiento no rígido sino que se adapta a la tarea y circunstancias.


Y las adicionales, no obligatorias, serían:


  • Percibidos como una unidad: es decir, como algo diferenciado, no extenso o distribuido.
  • Similitud con los humanos: característica, debo admitir, muy sujeta a juicio, discusión y debate, pero que creo tiene su importancia en la práctica.

La caracterización de Aníbal Astobiza


Pero si todo lo anterior son mis propios pensamientos y los he recogido en diversas formas de publicación en mis medios digitales o en papel, lo que me ha animado a escribir este post es el hallazgo de una tercera caracterización interesante.

Se trata de la que realiza el filósofo Aníbal Astobiza en su libro 'Tecnofilosofía'.

Allí, el autor propone las siguientes características:


  • Movilidad: que les permite a los robots trabajar en hospitales y oficinas

  • Interactividad: que se refiere a la existencia de sensores y actuadores que permiten al robot interactuar con su entorno

  • Comunicabilidad: relativa, según entiendo del texto, a su relación con humanos mediante interfaces informáticas tradicionales (lo que solemos denominar interfaces de usuario) o mediante la voz y el lenguaje natural.

  • Autonomía: Capacidad para tomar decisiones sin necesidad de un control externo directo.


De estas características, claramente, la autonomía se utiliza en el mismo sentido en que yo lo hago, y la interactividad está de alguna forma implícita en la idea de agente que yo también utilizo. En estas dos, pues, coincidimos creo que plenamente.

La característica de comunicabilidad es bastante común en los robots y muy interesante, por cierto, cuando hablamos de robots sociales e Human-Robot Interaction. Sin embargo, en muchos de ellos no es, todavía, mediante interfaces de tipo social, naturales para los humanos, sino vía interfaces de usuario más tradicionales e incluso protocolos técnicos de comunicación.

Sin embargo, la característica de movilidad, aunque se da, y en buena medida, en muchos robots, deja fuera, por supuesto, a los robots software y, dependiendo de a qué tipo movilidad nos refiramos, a otros tipos de robots. Especialmente si pensamos en movilidad como un desplazamiento completo del robot, no una mero movimiento de sus eslabones o partes constitutivas, podría incluso dejar fuera a los propios brazos robóticos industriales. A falta de aclarar mejor esta característica, en principio no me convence mucho como caracterizadora de lo que es un robot. 


Conclusiones


Pocas conclusiones podemos sacar salvo reafirmarnos en la dificultad, casi imposibilidad, de proporcionar una definición de robot rigurosa, de amplio consenso y que a su vez cubra todo, o al menos la mayor parte de aquellos entes a los que denominamos, quizá sin pensarlo mucho, 'robot' y, por tanto, el interés de identificar aquello que comúnmente exhiben los artefactos que llamamos robot y que ayudan a distinguirlos de los que no consideramos como tales.


viernes, 14 de julio de 2023

Los robots no harán yoga. La visión humanista de la Inteligencia Artificial de Juan Ignacio Rouyet

'Estupidez artificial: cómo usar la inteligencia artificial sin que ella te utilice a ti' es una mirada humanista al mundo de la inteligencia artificial, con una perspectiva sobre todo ética. Un libro escrito en un tono irónico, desenfadado, casi humorístico pero que, sin embargo, no nos dejemos engañar, exhibe una notable profundidad de conocimiento, pensamiento y reflexión.

Aunque pueda parecer un detalle casi anecdótico, lo cierto es que el carácter humanista del autor se manifiesta, no sólo en su claro conocimiento de la filosofía y la ética, sino también su aparente amor por el arte que refleja abriendo los capítulos centrales con un cuadro, no de los más conocidos, que de alguna forma representa y sirve de entrada para la argumentación del capítulo.

La obra se estructura en ocho bloques (el autor no habla realmente de capítulos), a saber:
  • 'De agua, harina y sal:' Una breve introducción al libro, apoyada en una fábula oriental.

  • 'Miedo me da:' Abre con el cuadro 'Caos primordial' de Hilma Af Klint, una obra abstracta que sólo fue reconocida tras la muerte de su autora. En el capítulo intenta mostrar que el miedo y las predicciones catastrofistas no son algo exclusivo de la actualidad y de la Inteligencia artificial y que ha ocurrido con frecuencia a lo largo de la historia. Así, en concreto, el autor repasa cómo la llegada e implantación inicial de tres tecnologías, el ferrocarril, el teléfono y el telégrafo, generaron miedos y propuestas de prohibición o limitación que hoy en dia consideramos claramente desacertadas, desproporcionadas o directamente absurdas.

  • 'Inteligencia probable:' Utiliza como cuadro de introducción 'Montañas y mar' de Helen Frankenthaler, una obra de aspecto similar a una acuarela y que utilizó una técnica de colores muy innovadora. En el capítulo, de una forma más intuitiva que técnica, explica algunos de los aspectos de la inteligencia artificial, poniendo en foco en demostrar como con frecuencia se basa en patrones, combinatoria y probabilidades y cómo eso se traslada, por ejemplo, a las conversaciones de un chatbot, a la toma de decisiones o a la creación de una imagen.

  • 'Esto no es una pipa:' El cuadro que abre el capítulo es casi el que le da nombre, puesto que se trata de 'La traición de las imágenes (esto no es una pipa)' de René Magritte. En el desarrollo argumental sigue aclarando, en lenguaje no técnico, algunos elementos del  funcionamiento de la inteligencia artificial pero ahora, si se quiere, con una perspectiva algo más elevada, más cerca del debate sobre la naturaleza de la inteligencia artificial y la naturaleza humana. Aborda así, el problema de delinear qué es exactamente pensar y si la inteligenci artificial lo hace, o lo que es arte y lo que no, y si lo que hace la inteligencia artificial se puede considerar como arte, o incluso el problema de la consciencia.

  • 'Será por éticas:' El capítulo más largo, y quizá más importante del libro. El cuadro que lo preside es 'Mujer con abanico' de María Blanchard al que hay referencias en el texto pero que, en este caso se introduce mediante un debate interno en una empresa ficticia, AlegrIA, que ofrece contenidos multimedia apoyándose en un algoritmo de Inteligencia Artificial. El objetivo del comité de dirección que se simula, es revisar, precisamente, los criterios de ese algoritmo. En este debate toman parte los diferentes actores del comité de dirección que, posteriormente, el autor nos aclara que representan las diferentes corrientes filosóficas y éticas. Porque, en efecto, lo que hace luego el capítulo es revisar todas esas teorías éticas, comenzando por el propio concepto de ética. En el repaso histórico se parte de Aristóteles, se sigue por Santo Tomás de Aquino y luego Hume, Kant, el utilitarismo, Nietzsche, Habermas y la ética del discurso

  • 'Cómo no se una sopa de datos: ' En esta ocasión, el cuadro es 'Latas de sopa Campbell' de Andy Warhol. Este capítulo se centra en ética aplicada o como tener una visión más concreta y práctica de la ética, en este caso aplicada a la inteligencia artificial. Hacia el final del capítulo el autor vuelve a adoptar el tono literario desarrollando una breve tragicomedia centrada de nuevo en la startup AlegrIA que conocimos en el capítulo anterior.

  • 'Los robots no harán yoga:' Un corto capítulo final en que el autor nos desvela que el título inicalmene pensado para el libro era, precisamente, 'Los robots no harán yoga' queriendo significar la ausencia de emociones y de ética en los algoritmos y los robots. Además, propone lo que denomina las tres virtudes tecnológicas, a saber, amabilidad, alegría y arte.

  • 'Fuentes, por si quieres seguir bebiendo.' Una propuesta de bibliografía complementaria.
'Estupidez artificial: cómo usar la inteligencia artificial sin que ella te utilice a ti' es un libro que, pese a su desenfado y aparente sencillez, es informado, culto y profundo, con un pensamiento muy interesante sobre la inteligencia artificial y su conexión con una visión humanista.
 
Juan Ignacio Rouyet

(Fuente: Perfil del autor en Libros.com)

Juan Ignacio Rouyet
Juan Ignacio Rouyet (Madrid, 1967) es doctor en Informática e Ingeniero de Telecomunicación. Actualmente es senior manager en la consultora Eraneos, y profesor en la UNR y en la Universidad Francisco de Vitoria, donde colabora con el Centro de Estudios e Innovación en Gestión del Conocimiento (CEIEC) en una IA ética.

Además, es presidente de We The Humans Think Tank, que busca soluciones éticas para la IA. Escribe en la columna «Homo digitalis» de Digital Biz, y colabora con distintos medios de comunicación. Pero, ante todo, Juan Ignacio es y siempre será un ingeniero humanista.

Puedes saber más del autor visitando su página oficial y su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @jirouyet.
    
Ficha técnica:

EDITORIAL: Libros.com
AÑO: 2023 
ISBN: 978-8419435262
PAGINAS: 254

Artículos de este blog relacionados

jueves, 13 de julio de 2023

La definición de Inteligencia Artificial en el ámbito jurídico. El caso de la AI Act

La inteligencia artificial es, probablemente, la tecnología más transformadora que podemos contemplar hoy en día.

Una tecnología que, sin embargo, es muy diversa y polifacética tanto en cuanto a sus técnicas como en cuanto a sus aplicaciones. Eso que la convierte, creo, en más valiosa a interesante, complica, sin embargo, su definición. 


La definición de la inteligencia artificial


En efecto, suelo decirle a los alumnos de cursos en que en mayor o menor medida abordo la inteligencia artificial, que todavía no he encontrado una definición que me satisfaga plenamente, una definición correcta, abarcadora, que delimite bien las fronteras y, en la medida de lo posible, corta y clara.

Al igual que hago en mi segundo libro 'Robots en la sombra' suelo recordar en primer lugar la, no sé si definición o explicación', que en su momento aportó McCarthy, uno de los padres de la inteligencia artificial.


Hacer que una máquina se comporte de una forma que consideraríamos inteligente si un humano se comportase de esa forma.


Una declaración simple, aspiracional y fácil de entender... pero laxa y alejada de lo que es realmente hoy en día la inteligencia artificial.

En mi primer libro, 'La carrera digital' proponía la siguiente definición:


Inteligencia artificial es una disciplina que define algoritmos capaces de aprender a partir de datos y experiencia, adaptando su comportamiento con un cierto grado de autonomía.


aunque, y sabiendo que está mal que yo lo diga, es de las definiciones que creo más acertadas, sin embargo, y a pesar de ser mía, tampoco me satisface completamente. Sobre todo porque parece referirse sólo al machine learning que, a pesar de ser el subconjunto dominante, y muy dominante, hoy en día en la inteligencia artificial, no lo es todo, especialmente si miramos al pasado, a las primeras realizaciones de la inteligencia artificial y, cualquier sabe si será tan dominante en el futuro.


El enfoque pragmático


Para mis labores de formación, e incluso de investigación y reflexión, en este ámbito como en otros, y muy especialmente el de la robótica, donde el propio término robot está sometido a encendidos debates, suelo adoptar lo que llamaría un enfoque pragmático

Un enfoque en que 'no me empeño' en encontrar la definición perfecta, sino en ser capaz de explicar (si es posible hacerlo apoyado en un diagrama de bloques, aún mejor) la idea principal y las características que, al menos en la mayor parte de las veces, exhibe aquello que llamamos robot o que llamamos inteligencia artificial.


Las definiciones y la ley


Ese enfoque pragmático, que considero acertado y útil en muchos casos, puede que sea un lujo que una formulación jurídica, una ley o un reglamento no se puedan permitir.

No soy jurista, así que puedo equivocarme en mis apreciaciones, pero siempre me ha parecido que uno de los ámbitos donde mayor atención se presta a las definiciones, a un uso preciso, extremadamente preciso, del lenguaje, en en el ámbito legal.

Y me parece muy bien que sea así. El rigor es muy bueno en cualquier ámbito de la vida, pero en el legal creo que es imprescindible. Si vas a marcar en un texto lo que las personas e instituciones pueden hacer y lo que no, y si presuntamente vas a castigar a quien no observe esas directrices, más vale que seas claro en el establecimiento de las reglas y para ello, entre otras cosas, necesitas buenas definiciones de aquello que vas a regular.


Formulaciones en la AI Act


Como muchos lectores de este blog conocerán, se encuentra en estos momentos en avanzado estado de tramitación la llamada AI Act, la ley europea aplicable a la inteligencia artificial.

Y, claro, si tengo razón en todo lo expuesto más arriba, el legislador europeo tiene un problema: no le queda otra que intentar definir inteligencia artificial...cuando no existe realmente una definición precisa y universalmente aceptada.

¿Qué está haciendo?

Según me cuentan compañer@s juristas de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), y si lo he entendido bien, se encuentran en liza y sometidas a comentarios y supongo que negociaciones, dos formulaciones de lo que es la inteligencia artificial. Veámoslas y luego comento alguna percepción:


La propuesta de la Comisión Europea


En la propuesta elevada por la Comisión Europea, se define sistema de inteligencia artificial a lo siguiente:


artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with


En cierto sentido es una definición incompleta o que se completa por referencia, ya que las técnicas a que se refiere la definición no están en ellas contenidos sino en un anexo. Bueno, ese anexo, reza lo siguiente:


Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning;

Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference/deductive engines, (symbolic) reasoning and expert systems;

Statistical approaches, Bayesian estimation, search and optimization methods.


Esta es una de las formulaciones. Veamos la otra.


La propuesta del Parlamento Europeo


La enmienda que ha salido del Parlamento Europeo, es:


artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environment.


Ya no hay referencias a un anexo. Pero hay alguna diferencia más que analizaré en lo que queda de post.


El retorno a la teoría de conjuntos. Definiciones por extensión y por enumeración.


Cuando confronto estas dos definiciones, especialmente en lo relativo al anexo, no puedo evitar que vengan a mi memoria recuerdos infantiles de cuando en EGB me explicaban teoría de conjuntos y nos decían que había dos formas de definir un conjunto:


  • Por extensión: en que de alguna forma dabas la regla que hacía que un elemento perteneciese o no a un conjunto.
  • Por enumeración: simplemente, listabas los elementos del conjunto


En cierto sentido, salvando las distancias y tomándome alguna licencia, es como si la definición propuesta por el Parlamento Europeo actuase definiendo inteligencia artificial por extensión, mientras que la propuesta original de la Comisión Europea, con su anexo, lo hace por enumeración.

¿Qué es mejor?

Desde un punto de vista académico, teórico, conceptual, casi diría que intelectual, prefiero mil veces una definición por extensión (como es la del Parlamento). Si en algún futuro libro, que lo habrá, hago un nuevo intento de definir inteligencia artificial, será, sin duda, por extensión y no por enumeración.

En cierto sentido, una definición por enumeración me parece casi un truco burdo, una no definición. Quizá una explicación, pero no una definición.

Y sin embargo...


Enumeración y resiliencia de la ley


Y sin embargo, para este caso concreto, para la definición de inteligencia artificial en un texto legal, la ley de la inteligencia artificial europea, puede ser un gran acierto actuar por enumeración (usar el anexo).

¿Por qué?

Pues por dos motivos. 

Porque, por un lado, como he dicho, no existe, al menos que yo sepa, una definición de inteligencia artificial completa, clara, realista y ampliamente aceptada. Un enfoque por enumeración parece más fácil que tenga consenso porque los expertos reconocerán las técnicas sin necesidad de empeñarse en reducirlas a un enunciado de difícil generalidad y convergencia.

Y quizá más importante: porque intentar definir inteligencia artificial es apuntar a un blanco móvil, algo que está en constante y muy rápida evolución. Y la apurada inclusión en el texto legal de las consideraciones específicas a la inteligencia artificial generativa y los modelos fundacionales, así lo acredita.

Aislar las técnicas que comprende la inteligencia artificial en un anexo, es un factor de resiliencia y de estabilidad en el tiempo de la propia ley. Si la evolución de la inteligencia artificial hace que se incluyan nuevas técnicas, pero sin desafiar ni los principios éticos, ni los niveles de riesgo ni las medidas de gobierno que plantea la ley, modificar la ley consistiría en modificar tan solo el anexo, permaneciendo inalterado el articulado, que no deja de ser el verdadero contenido de la ley.

Repito que no soy jurista, y desconozco los procedimientos de tramitación, pero el sentido común me dice que tramitar un cambio sólo en el anexo debería ser muchísimo más rápido y sencillo que decidir sobre el articulado.


Software versus sistema


Otra diferencia que aprecio es que en la propuesta de la Comisión Europea se considera a la Inteligencia Artificial como software mientras que en la enmienda del Parlamento Europeo  nos habla de sistemas basados en máquinas.

Siendo realistas, la inteligencia artificial es básicamente software y no preveo que esto cambie demasiado. Por supuesto el software se ejecuta sobre un hardware pero, en general, podemos considerar a la inteligencia artificial como software.

Sin embargo, no es descartable que, por ejemplo, y por meros motivos técnicos y de eficiencia y rapidez, algún fabricante decidiese, por ejemplo, implementar un algoritmo en un circuito integrado o hacerlo (a lo mejor en algún caso ya se hace) con las operaciones matriciales y tensoriales habituales en machine learning.

Si hablas de sistema, abarcas ambas posibilidades, incluyes el software pero también la posibilidad de hardware. Por eso, y pensando de nuevo en la resiliencia de la ley, yo tendería a hablar de sistemas, más que de software.


Sobre la autonomía


Un tema que veo expresado de forma ambigua, y no es nada trivial, es la mención al concepto de autonomía en la propuesta del Parlamento Europeo.

Reconozco desconocer si algún texto complementario dentro de la propia ley o la enmienda, clarifica qué quiere decir con autonomía.

Así, por ejemplo, yo mismo, cuando en 'La carrera digital' explico las características hablo de la autonomía de los algoritmos en el sentido de que, dado que son capaces de aprender de datos y experiencia, pueden, si así se ha previsto, evolucionar sin que sus creadores (desarrolladores) intervengan directamente.

Cuando en 'Robots en la sombra' hablo de autonomía en relación a los robots, lo hago para indicar que al contrario que, por ejemplo, herramientas como un martillo neumático, un robot funciona sin ser 'pilotado' por un humano.

Aunque en lenguaje llano podemos pensar que utilizo autonomía de forma equivalente (independencia de los humanos) creo que hay matices prácticos y técnicos relevantes entre una concepción y otra de autonomía. 

No tengo claro a qué se refiere exactamente con autonomía el texto del Parlamento Europeo, pero no es una palabra baladí en el ámbito en que se está utilizando así que, simplemente, dejo el aviso de que, si no se clarifica en alguna parte del texto que ahora no tengo en mente, debería hacerse.


La fijación de objetivos


En la formulación de la Comisión Europea, se dice que los objetivos del sistema de Inteligencia Artificial los fijan los humanos, mientras que esa referencia humana desaparece en la formulación del Parlamento Europeo que habla de objetivos explícitos e implícitos.

Sinceramente, creo más realista la formulación del Parlamento Europeo. Creo que la Comisión se dejó arrastrar por ese deseo de que los humanos estén al mando o de no asustar con la posibilidad de que las máquinas puedan hacer su voluntad.

Sin embargo, es más realista pensar que, aunque esperamos que en último término siempre haya alguna forma de control humano, muchos algoritmos y sistemas de inteligencia Artificial pueden poner sus propios objetivos o recibirlos de otro algoritmo o incluso un sistema no inteligente. 

Así que me parece mejor formulación la del Parlamento.


Los entornos


Ambas propuestas acaban diciendo que los algoritmos actúan sobre su entorno. En el caso de la propuesta de la Comisión Europea, lo hace en general mientras que en la enmienda del Parlamento Europeo, matiza indicando que ese entorno puede ser físico o virtual.

Estrictamente hablando, no hay error y no hay contradicción en ninguna de las dos, solo más nivel de detalle en el caso de la propuesta del Parlamento Europeo. 

Sin embargo, intuyo un riesgo de malentendido en la propuesta del Parlamento Europeo. Hablar de 'influir en un entorno físico' conduce, creo, a pensar directamente en robótica, aunque, como también he comentado en este blog, la realidad física o no de los robots también es un elemento sometido a debate.

Por desgracia, creo que existe una cierta asimilación entre inteligencia artificial y robótica, y es cierto que son disciplinas que cada vez se entremezclan más. Sin embargo son claramente disciplinas diferenciadas. Así, existen muchos robots, muchos robots físicos, que no emplean inteligencia artificial y que 'actúan sobre un entorno físico'.

Insisto, no es que me parezca realmente incorrecta la formulación del Parlamento Europeo en cuanto a los entornos pero, como digo, creo que incita a concepciones erróneas, por lo cual me quedaría, a pesar de ser más vaga, con la de la Comisión que habla únicamente de entornos 


Uso de la Inteligencia Artificial


La parte final de ambas definiciones, de una forma, no muy detallada, nos habla de alguna forma de cómo se aplica la inteligencia artificial y menciona salidas como predicciones, recomendaciones o decisiones.

No es muy detallado, pero tampoco lo voy a criticar. Sí sugeriría, quizá, añadir a la lista, algo a sí como 'contenidos' o 'media', pensando en la últimamente omnipresente inteligencia artificial generativa


Conclusiones


Como decía al principio del post, definir inteligencia artificial es realmente difícil, al menos eso creo yo, pero a un texto legal como es el caso de la AI Act, entiendo que no le queda otro remedio que hacerlo.

Visto así, alabo el esfuerzo, aunque sigo sin encontrar, tal vez no exista, esa definición de inteligencia artificial que realmente me satisfaga. Tampoco en la AI Act, lo siento.

Si algún jurista lee esto, y especialmente si es alguno o alguna implicado en la redacción de esa ley, espero que estas líneas le puedan arrojar alguna idea, alguna reflexión, alguna consideración, quizá alguna sugerencia de enmienda o alguna propuesta de decisión y, si así sucede, me encantaría que me lo hiciese saber.


miércoles, 12 de julio de 2023

Pasión y vértigo. La relación con las máquinas y el efecto sustitutivo

La relación de los humanos con las máquinas está evolucionando.

La evolución de la relación humano-máquina


Y está evolucionando provocado, creo, no tanto por el cambio en el lado humano de esa relación, como por la creciente sofisticación de las capacidades relacionales de esas máquinas, con frecuencia por mor de la aplicación de cada vez más avanzadas capacidades cognitivas  procedentes de la inteligencia artificial.

Y aunque acabo de decir que el cambio se produce más en el lado máquina de la relación, porque es el lado que más ha evolucionado en cuanto a capacidades, lo cierto es que, indirectamente algo, y mucho probablemente, cambia también en el lado humano de esa relación que, al final, es el que nos importa.

Cambia por evolución cultural, cambia por la percepción que tenemos de las máquinas, cambia por la abundancia de esas relaciones con las máquinas, cambia, a veces, incluso por la dependencia e impacto que en nuestras propias actitudes y capacidades cognitivas induce esa relación.


La tecnología como sustitutivo


En un libro casi clásico, ‘Alone Together: Why We Expect More from Technology and Less from Each Other‘ de Sherry Turkle, se habla de estas relaciones centrándose en dos grandes grupos de tecnologías: por un lado la robótica social y, por otra las redes sociales incluyendo como tal también la mensajería instantánea. Y se concluye en una frase casi mítica, que se recoge como subtítulo del libro que esperamos más de la tecnología y menos delos demás.


We fear the risks and disappointments of relationhip with our fellow humans. We expect more from technology and less from each other.


En cierto modo, aunque creo recordar que Turkle no emplea este término, nos habla de la tecnología como una suerte de producto sustitutivo en lo que a las relaciones humanas se refiere.

Veamos un poco más los principales mensajes de Turkle.


Esperamos más de las máquinas


Por un lado, Turkle destaca el atractivo de las máquinas, de esas máquinas con cada vez más avanzadas capacidades relacionales y con una, en realidad impostada, comprensión de las necesidades e intimidades humanas


Technology proposes itself as the architect of our intimacies


Una tecnología social, es decir, orientada a relacionarse con humanos, como pueden ser los robots sociales, los agentes conversacionales o, en cierto sentido, las redes sociales, tenderá a intentar entender y gestionar las emociones humanas, sus necesidades y sus deseos incluso los no expresados y que, en ese sentido, se pueden considerar hasta cierto punto íntimos.

Y, además, según nos dice la autora, a medida que esa tecnología, esa máquina, es más capaz de detectar nuestras debilidades, inseguridades y vulnerabilidades, y de ofrecer algún tipo de ayuda, soporte, consuelo o satisfacción, se convierte en una solución más atractiva, más seductora.


Technology is seductive when what it offers meets out human vulnerabilities


No creo, estoy seguro en realidad, de que lo que esperamos de las máquinas no es sólo, ni mucho menos, una, digamos, satisfacción emocional. También esperamos de ellas capacidad de cálculo, esperamos información, esperamos ayuda con tareas del día a día, esperamos que nos liberen de tareas arduas, esperamos automatización y eficiencia, esperamos entretenimiento, etc

Pero sí creo que en la medida que incorporen esas capacidades relacionales, y esa capacidad para gestionar emociones y necesidades, especialmente en las situaciones de vulnerabilidad emocional, el atractivo crece, la intensidad de la relación crece, la frecuencia de la relación crece... y puede que crezca la dependencia.


Esperamos menos de las personas


En el lado contrario, nuestras relaciones naturales, las relaciones con los humanos, pierden peso. A veces, simplemente, por falta de tiempo, porque dedicamos mucho de nuestro tiempo en relacionarnos con las máquinas o a través de ellas (caso de las redes sociales) y disponemos, pues, de menos espacio material para la relación con los humanos cercanos.

Y con ello, perdemos poco a poco esa relación humana. Y, en cierto sentido, y esa es la paradoja que destaca Turkle, mientras más conectados estamos, más solos nos encontramos, en realidad.

Y, sin embargo, parecemos no desear romper ese círculo. ¿Por qué? Pues, falta de tiempo aparte,  por las complejidades, dificultades, exigencias y a veces decepciones que acompaña a toda relación persona-persona.

Y así, nos encontramos ante la paradoja:


we are lonely but fearful of intimacy


Solos, pero con miedo a la intimidad (con personas, se entiende)


Digital connections and the sociable robot may offer the illusion of comanionship without the demands of frendship


En nuestro 'auxilio', las máquinas, máquinas sociales, máquinas que parecen acompañarnos y acercarse a nosotros, comprender nuestras vulnerabilidades y que nos 'acompañan', pero sin exigirnos, sin complejidades, sin decepciones.

Esta es la paradoja.

Este sea, quizá, el peligro.


El salto generativo


Y todos estos razonamientos los escribía Turkle ya en 2017.

Me pregunto qué puede pasar desde ya y en un plazo de, digamos, tres años, cuando se desarrolle e implante aún más la tecnología generativa de la inteligencia artificial con su mayor transversalidad cognitiva y su salto cualitativo en cuanto al uso del lenguaje y el conocimiento en general.

En un artículo reciente, me preguntaba sobre su impacto en nuestras capacidades cognitivas, pero ahora dejo abierta la pregunta sobre su impacto en nuestras capacidades relacionales y sociales.


Conclusión. Pasión y vértigo.


Vivimos tiempos apasionantes, pero también de profundo vértigo.

Tiempos en que los cambios tecnológicos suponen una gran exigencia intelectual y laboral para estar al día, para seguirle el paso a la tecnología, para adaptarnos, para continuar siendo profesional y laboralmente relevantes.

Pero tiempos en que esos cambios nos devuelven, una y otra vez, no sólo a lo operativo, económico y profesional, sino a la necesidad de la reflexión sobre la persona, sobre el ser humano y sobre la sociedad. Sobre qué somos realmente y qué queremos ser y, en este caso, cómo nos relacionamos y cómo queremos relacionarnos, con las máquinas y, sobre todo, entre nosotros, humanos.

Tiempos que imponen pragmatismo, si, pero también reflexión humanista y decisiones éticas.

Tiempos de pasión. 

Tiempos de vértigo.


lunes, 3 de julio de 2023

La ética como algoritmo. Un pseudocódigo ético.

Nos hemos acostumbrado a hablar de la ética de los algoritmos o, quizá, por mejor decir, la aplicación de criterios éticos a la construcción de algoritmos o sistemas basados en Inteligencia Artificial.

Pero, ¿Se te había ocurrido pensar que la propia ética se pudiese expresar como un pesudocódigo, como un algoritmo?

Bueno pues, hasta cierto punto, es posible. No al cien por cien, porque para que fuese un verdadero algoritmo debería ser absolutamente indudable y deberíamos ser capaces de codificarlo en python o similar. Y no, a tanto no llegamos (ya quisiéramos), pero sí a una aproximación.


Las teorías utilitaristas y consecuencialistas de la ética


Aquellos versados en ética o filosofía pueden intuir por dónde 'van los tiros'. Una de las grandes corrientes éticas de la historia, y que aún se utiliza en la introducción a la ética de la tecnología o de la inteligencia artificial, son las denominadas teorías utilitaristas o consecuencialistas, siendo sus grandes representantes Jeremy Bentham y John Stuart Mill.

En su concepción inicial, de corte hedonista, lo que importa desde un punto de vista moral es aumentar las experiencias placenteras y minimizar el sufrimiento, las experiencias no placenteras. Pero, al hacerlo, se adopta no tanto una visión individual como colectiva, de forma que hacer el bien es maximizar el placer total y minimizar el sufrimiento total (de toda la humanidad). Además, en las formulaciones más tardías, como la de Stuart Mill, no todos los placeres o sufrimientos tienen el mismo rango (¿podríamos hablar de 'peso'?) siendo más relevantes, por ejemplo, los placeres intelectuales.

En el caso de Mill entiende que, tanto el placer como el sufrimiento tiene una visión inmediata y otra a futuro. En ambos casos, el valor inmediato depende de unos factores (intensidad, duración, certidumbre y cercanía) y la futura de otros dos factores (fecundidad y pureza) pero no vamos a entrar en definir esos factores.

Por tanto, en un caso dado la opción moralmente correcta sería aquella que maximizase una función de utilidad que valore el placer y sufrimiento generados por la acción.

¿Ha notado el lector el uso de palabras como 'maximizar', 'función', 'factor' o 'peso'? ¿No parece un lenguaje matemático y algorítmico?

Pues si que lo parece, y con motivo, porque es que entre los filósofos utilitaristas había un gran peso de economistas acostumbrados a manejar esa función de utilidad que, al menos conceptualmente, es una función matemática (otra cosa  es que sepamos definirla con precisión) y si, el máximo o mínimo de esa función es el que estamos acostumbrados a tratar en matemáticas.


Algo así como un pseudocódigo ético


Lo anterior es teoría muy general de la ética, pero ha venido recientemente a mi mente, y me ha apetecido consignarlo aquí, leyendo el libro 'Estupidez artificial' de Juan Ignacio Rouyet, quien lo explica muy claramente. 

Además, Juan Ignacio, en su libro, nos aporta una especie de seudocódigo que implementa esa función de utilidad. El pseudocódigo (que he modificado ligeramente para acercarlo más al aspecto de un código en C o Python), sería: 


Inicializar balance total de la acción a cero.

Para todas las personas afectadas por la acción {      

Calcular su valor de placer { 

Valor inmediato: sumar los valores de placer según intensidad, duración, certidumbre y cercanía

Valor futuro: sumar los valores de placer según fecundidad y pureza

Calcular su valor de dolor {

Valor inmediato: sumar los valores de dolor según intensidad, duración, certidumbre y cercanía

Valor futuro: sumar los valores según fecundidad y pureza

Hacer balance de la persona (placer - dolor)

Sumar el balance de persona al balance total 

 } 

 Si el balance es positivo, la acción es buena; si es negativo, mala


En este algoritmo sólo nos falta la maximización de la utilidad pero, eso sería, simplemente, calcular la utilidad para las diferentes acciones posibles y elegir la que arroja un valor mayor.

Y ¡voilá! la ética como algoritmo.       

Si el lector tiene curiosidad, puede ver una explicación de las funciones de utilidad en este vídeo  'Utilitarian, Rawlsian and Weighted Social Welfare Functions' de Ashley Hodgson, que es a quien corresponde la imagen de portada.


Conclusión


Lo que he contado en este post, en el fondo es poco más que una curiosidad, casi un divertimento, pero sirve, aparte de para entender un poco más el enfoque, utilitarista y consecuencialista de la ética, para, quizá, que alguno pierda esa 'manía' que parece que se les tiene a los algoritmos.

Si hasta una valoración moral de una acción se puede expresar como un algoritmo y como pseudocódigo, será que no son tan malos ¿no?