miércoles, 14 de febrero de 2024

El escepticismo acerca de la ética de la inteligencia artificial

Que la ética de la inteligencia artificial es un tema de moda, no me cabe duda. De que se habla, por tanto, mucho de ella en todo tipo de foros, eventos y cursos, tampoco.

La cuestión en este post es, sin embargo, si avanzamos, realmente, en una implementación, adopción y uso de la ética de la inteligencia artificial o no, y si debiéramos ser escépticos sobre su  eventual desarrollo.


Las tres vías de abordar la ética de la Inteligencia Artificial


En varios cursos y charlas he destacado tres formas de abordar la ética de la inteligencia artificial, aunque, en realidad, siempre debiéramos considerar una cuarta que, en el fondo es la más intrínsecamente ética. Veamos.

Las tres formas en que, sobre todo, se puede operativizar la ética de la inteligencia artificial, son, en mi opinión:


  • Tecnología
  • Derecho
  • Iniciativa empresarial  e individual


Las tres anteriores en el fondo, y como digo, se centran más en operativizar la ética. La cuarta a añadir es la propia reflexión ética.

Paso a comentar muy brevemente las cuatro.


La reflexión filosófica y los valores


En realidad, la reflexión, la decisión acerca de lo que está bien o está mal, acerca de los valores que queremos promover, conservar y aplicar, es el origen de todo. A veces nos olvidamos de ello, y creo que es debido a dos motivos. 

Uno, que muchos valores ya están asumidos, integrados y dados por supuestos. Por decirlo  de alguna forma, porque heredamos una reflexión ética ya hecha. Así ocurre, por ejemplo, en Occidente, con todo lo que tiene que ver con la privacidad y el derecho a la intimidad. Son valores asumidos, pero no olvidemos que, de alguna forma, la reflexión ética ha sucedido, ha sido anterior y no olvidemos tampoco que, por ejemplo ese derecho a la intimidad y la privacidad consiguiente, no deja de ser una elección, que en Asia, por ejemplo, no se tiene la misma visión acerca de la individualidad.

Y, otro, que quizá, los propios filósofos, los especialistas en teoría en la ética, hacen sesudos y sin duda interesantes análisis, pero pocas veces nos marcan el camino a adoptar (como ocurre con frecuencia en filosofía, se preguntan más que contestan).

Añadiría que hay casos, que voy a obviar en este post aunque personalmente son los que más me interesan, muchos que tiene que ver con roboética y con la forma en que la tecnología desafía nuestra concepción sobre la propia naturaleza humana, en que ni siquiera tenemos unas respuestas claras, unos valores claros, una definición nítida de lo que puede estar bien o estar mal.

En realidad, a la hora de hablar de ética de la inteligencia artificial, lo habitual es obviar la reflexión ética propiamente dicha, partir de unos valores que damos por ciertos y asumidos, y ver cómo respeta o no la inteligencia artificial esos valores y qué podemos hacer en caso de que no sea así.

Y eso nos lleva a la operativización de la ética en inteligencia artificial y a las tres vías de su abordaje. 


La perspectiva técnica


Me gusta recordar que la tecnología aporta también soluciones.

Y me gusta hacerlo porque en muchos autores y muchos ámbitos, creo que con frecuencia motivado por desconocimiento e incluso sesgo cognitivo, se tiende a presentar a la tecnología y a sus creadores, como algo desalmado, creador de problemas y sin la más mínima sensibilidad moral. A veces se presenta a la tecnología, en este caso la inteligencia artificial, y sus creadores, normalmente referidos como los ingenieros, como algo simplemente malo o carente de sensibilidad.

Y, por supuesto, no es así.

Mucha gente ignora que existen algoritmos y herramientas, pensadas y desarrolladas por esos mismos colectivos que algunos consideran culpables, que de forma bastante efectiva permiten explotar los datos respetando la privacidad, o analizar los modelos y algoritmos para detectar y corregir sesgos.

Insisto, soluciones tecnológicas, a veces también metodológicas, para la ética.

Y aunque no siempre va a ser posible (por ejemplo, la cosa en materia de explicabilidad es bastante más compleja), siempre que podamos encontrar una solución tecnológica y automatizada para garantizar el uso ético, será probablemente la medida más efectiva.


El impulso jurídico


La segunda vía es la jurídica.

Con frecuencia digo, no sé si acertadamente, que la ley es el 'brazo armado' de la ética. Cuando tenemos claros unos valores, o unos comportamientos deseados, la forma de garantizarlos, desde luego no totalmente, pero sí en buena medida, es mediante la regulación, mediante la ley, mediante instrumentos jurídicos que obliguen a adoptar esos comportamientos y penalicen cuando no se haga.

Y, al menos en Europa, hay gran actividad en este sentido y, en concreto, ahora estamos en el momento de la famosa AI Act, recientemente consensuada.

Aunque en su momento leí un borrador del texto, confieso que aún no he podido sacar tiempo para leer el enunciado final y para leer suficientes opiniones autorizadas sobre ella.

Entiendo como bueno y necesario que exista esa ley (ese reglamento, en realidad), pero aún no tengo una valoración clara de si éste reglamento en concreto, es la regulación adecuada, si aplica correctamente los principios éticos, si es efectiva y si, al tiempo, no demoniza la tecnología y no impide la innovación y el avance.

En cualquier caso, desde luego, la vía legal está en marcha, al menos en la Unión Europea.


La iniciativa empresarial


Pero, y todos lo sabemos, la ley no puede cubrirlo todo y no es posible avanzar en ella con suficiente velocidad para estar a la par de los avances tecnológicos.

Y, probablemente, tampoco se puede regularlo absolutamente todo.

Queda entonces, creo yo, muchos espacio para el ir más allá de la ley, mucho campo para la ética y responsabilidad individuales y, sobre todo, para la aplicación de principios éticos en el ámbito empresarial, y en la propia administración pública, siguiendo la filosofía de la ética por diseño.

Se trata, o se debiera tratar, cuando se aplica, de una decisión ética y de valores de las organizaciones que deciden aplicar principios éticos en sus propios procesos de diseño, desarrollo, implantación y comercialización de soluciones basadas en inteligencia artificial.

Un comportamiento, desde luego loable, aunque tampoco conviene ser inocentes y conviene darse cuenta de que, valores aparte, y sin dudar de ellos, hoy en día la aplicación de principios éticos, u otros valores como el respecto medioambiental, tienen valor de mercado, son una forma en apariencia efectiva de marketing y de mejora de posición competitiva. 

Es algo así, como un win-win: somos éticos, lo cual es bueno en sí mismo, pero es que además, nos posiciona bien en el mercado.


El 'bluewashing'


Y en parte, ese valor de mercado, esa aspiración a una imagen de marca responsable, puede llamar a lo que a veces se denomina 'bluewashing', derivado del término 'greenwashing' de similar significado pero procedente este último del ámbito medioambiental y de la sostenibilidad..

Se trataría de hacer grandes declaraciones de valores y decálogos éticos, de aplicar puntualmente esos principios éticos en algunos proyectos aislados, de invertir en soluciones de impacto social positivo basadas en inteligencia artificial, quizá a través de fundaciones...mientras el 'core' de la actividad con soluciones de inteligencia artificial, continua al margen de la ética y sin respeto a elementos como, particularmente, la privacidad.


Escepticismo

 

Todo eso nos puede conducir al escepticismo sobre el eventual uso ético de la inteligencia artificial y sobre la efectividad e incluso la intención de las actividades en materia de ética de la inteligencia artificial. 

Así, por ejemplo, me encuentro en el libro 'The ethics of artificial intelligence' del filósofo italiano Luciano Floridi, la siguiente frase


People also spread scepticism about the possibility of an ethical framework that would synthesize what we mean by socially good AI. 


que parece recoger esa sensación de escepticismo en algunos sectores sobre la viabilidad de un armazón ético que conduzca a la aplicación responsable de la inteligencia artificial.


La ética de fondo


Personalmente, creo que sí es viable, y que vale la pena luchar por ello.

Pero no ignoro, y también advierto, de que más allá de tecnologías, leyes y metodologías, lo importante es el verdadero y profundo comportamiento ético o, por mejor decirlo, la asunción profunda y sincera de unos valores y la verdadera voluntad de un comportamiento ético.

Con frecuencia pienso que, permítaseme decirlo así, nos estamos 'poniendo estupendos' con la ética de la inteligencia artificial cuando, por desgracia, observamos comportamientos muy poco éticos en temas mucho más básicos y que afectan desde el día a día hasta, y de forma muy destacada, la acción política y la administración tanto pública como privada.


Conclusiones


Creo que sí, creo que es posible un armazón ético para la inteligencia artificial. Creo que, si nos lo proponemos, somos capaces de encontrar las soluciones técnicas, las metodologías y los instrumentos legales que garanticen el uso ético y socialmente responsable de la inteligencia artificial... y de cualquier otra tecnología.

Pero lo básico, lo realmente importante, lo que marcará el ser o no ser, es que exhibamos unos valores auténticos y profundos. Lo crucial es que, realmente, aspiremos a esa ética. 


No hay comentarios:

Publicar un comentario