lunes, 5 de octubre de 2020

¿Es posible enseñar ética a una máquina?

Mucho se habla de la aplicación de la ética en el ámbito de la robóticainteligencia artificial. Mucho se habla y, aunque como todo aquello que se pone de moda corre el riesgo de la banalización, del vaciado intelectual y de la ausencia de rigor, en principio hay que alegrarse de ese interés que despierta la ética ligada a la Inteligencia Artificial, un interés que, además, como es el caso de la Unión Europea, parece que tiene visos de llegar a conclusiones y acciones concretas.

Sin embargo, conviene ser realistas y saber de qué estamos hablando realmente y, sobre todo, que está a nuestro alcance hoy en día.

¿Se puede enseñar ética a las máquinas? 

La respuesta, la verdad, es más negativa que positiva. Lo cierto es que, al menos hoy día, y mucho me temo que durante mucho tiempo, no se puede enseñar una ética general a las máquinas.


¿Qué ética queremos enseñar a las máquinas?


Y la primera dificultad no es de índole tecnológica, sino social o humana. A veces, inadvertidamente, hablamos de la ética como si fuera un corpus de doctrina claro, establecido, indudable. Sin darnos cuenta, tendemos a asumir que existen una serie de valores y comportamientos éticos de naturaleza universal, compartidos por toda la humanidad,  que son los que querríamos enseñar a las máquinas. Y no es así. Existen diferencias culturales, filosóficas y políticas que hacen que la percepción de lo que es valioso y lo que no, de lo que es ético y lo que no, sea diferente según países o capas sociales e incluso individuos concretos. La valoración por ejemplo, que se hace de la libertad individual en los países occidentales, tiene poco que ver con la que se tiene en Asia, muy especialmente en China. Y si no existe un corpus de doctrina definido, mal se puede enseñar a una máquina lo que ni siquiera los humanos hemos consensuado.

Pero supongamos que somos capaces de solventar esa pega. Supongamos que alcanzamos al menos un consenso de mínimos, quizá basado en la Declaración Universal de los Derechos Humanos y sabemos qué ética queremos enseñar a las máquinas. Supongamos, al menos, que nos centramos en enseñar la ética vigente en nuestro entorno social.

¿Es posible?

Bueno, lo siguiente que deberíamos hacer es ser muy concretos. Tal y como funcionan los algoritmos de inteligencia artificial, tal y como funcionan todos los sistemas digitales, en realidad, no se admiten reglas ambiguas. Tienen que ser concretas, muy concretas, absolutamente concretas. Y existen en realidad dos variantes de esa concreción.


Una ética simbólica


Si queremos razonar con base en reglas, tal y como se hace en la inteligencia artificial simbólica, por ejemplo los otrora famosos sistemas expertos, deberíamos ser capaces de destilar en reglas claras y muy concretas, algo así como las usadas en lógica proposicional o álgebra de Boole, lo que son comportamientos éticos. Si fuésemos capaces de hacerlo, que no lo somos, el número de reglas sería, creo, inmenso, inimaginable. ¿Cómo recoger en un conjunto finito de reglas lo que es un comportamiento ético? Deberíamos ser capaces de tres cosas: 

  • consensuar lo que es ético
  • reducirlo a un conjunto de reglas concretas
  • incorporar esas reglas a un algoritmo.

De esas tres acciones sólo la tercera tiene naturaleza técnica y, curiosamente, es la única que sí considero viable. Lo que no me puedo imaginar es que consiguiéramos las dos primeras, que dependen. no de las máquinas sino de los humanos.


Una ética basada en datos


Sin embargo el tipo de Inteligencia Artificial que está en boga hoy en día, la que está consiguiendo los espectaculares resultados en materia de disciplinas como el tratamiento de lenguaje natural, la visión artificial o la conducción autónoma, no es de naturaleza simbólica sino conexionista y basada en datos. Expresado de forma simple, para una ética basada en datos, no debemos concluir cuáles son las reglas éticas sino 'sólamente' mostrar a la máquina ejemplos de comportamientos éticos y dejar que ella identifique patrones y deduzca las reglas éticas subyacentes.  

¿Es eso posible?

Bueno, técnicamente si es posible, al menos bastante posible. Existen ya multitud de algoritmos, capaces de detectar patrones a partir de datos. Esos datos podrían llevar implícito el comportamiento ético. Estrictamente hablando, estos algoritmos no aprenderían ética sino comportamientos éticos. Dicho de otra forma, serían las máquinas las que deducirían la ética subyacente a partir de unos comportamientos que los humanos les mostramos y les indicamos que son éticos.

Esto no es sencillo, pero diría que sí es viable ya hoy en día. Pero, el problema es que nos enfrentamos a alguna limitación adicional muy importante.

Aparte de la ya mencionada falta de consenso entre humanos acerca de lo que es un comportamiento ético y lo que no, la Inteligencia Artificial de hoy en día no es una inteligencia artificial de propósito general, no es una inteligencia artificial capaz de enfrentarse a todo tipo de problemas y situaciones, sino sólo a ámbitos estrechos de actuación.  Probablemente, seamos capaces de llegar a introducir comportamientos éticos (supuesto que acordemos en qué consisten exactamente) en algoritmos que realizan tareas concretas de naturaleza más o menos sensible. 

Pero no pensemos, no al menos por el momento ni en un futuro cercano, que vamos a ser capaces de enseñar a las máquinas una ética de propósito general, una ética fundada en principios y valores que luego el algoritmo sea capaz de aplicar en situaciones diferentes e inesperadas.

No, eso no lo sabemos hacer, al menos no por el momento y tampoco parece que estemos cerca de conseguirlo. 

¿Qué podemos hacer?


¿Significa eso que debemos rendirnos y renunciar a la aplicación de la ética en la Inteligencia Artificial?

En absoluto. Podemos hacer cosas. Podemos hacer muchas cosas.

Podemos, por supuesto, seguir investigando en busca de algoritmos más potentes y generales donde se abran nuevas posibilidades no solo funcionales sino también éticas. Podemos, como ya hemos mencionado, enseñar comportamientos éticos a las máquinas en entornos acotados. Podemos, por ejemplo, luchar contra el sesgo en datos de entrenamiento de los algoritmos. Podemos establecer, por vía legal, restricciones a uso inadecuados o indeseables de la Inteligencia Artificial. Y podemos divulgar y concienciar.

Dicho de otra forma, no podemos, al menos no actualmente y de forma generalizada, enseñar ética a una máquina. Pero sí podemos hacer un uso ético de los algoritmos y la Inteligencia Artificial. 
 

Algo así es lo que concluyen Richard Benjamins e Idoia Salazar en su libro 'El mito del algoritmo' cuando nos dicen:


Dado que, hoy por hoy no es posible enseñar ética a una máquina, será a las empresas y sus desarrolladores a quienes hay que exigir que el desarrollo y el uso de la IA sean realizados de una manera ética, en concordancia con los derechos humanos internacionales.


La conclusión está clara: la responsabilidad ética, sigue estando en manos de las personas, no de las máquinas.


No hay comentarios:

Publicar un comentario