lunes, 9 de octubre de 2023

El peor sesgo que afecta a la inteligencia artificial

Una de las problemáticas de naturaleza ética que se asocian a la inteligencia artificial es la de los sesgos, el famoso sesgo algorítmico, aunque en ese término habría cosas que discutir.

Vamos a revisar un poco de qué va esto de los sesgos y luego te voy a transmitir una reflexión reciente que he tenido donde identifico como sesgo uno muy concreto...que no es el que te imaginas, ni el que aparece habitualmente en la literatura.

 

¿Qué es un sesgo?


Este concepto de sesgo  no es, ni mucho menos, exclusivo de la inteligencia artificial ni de los algoritmos informáticos. Afecta a algoritmos matemáticos y a máquinas o sensores, por ejemplo.

Un sesgo es una desviación coherente y sistemática respecto al valor que consideramos correcto en cada caso. Sistemática nos dice que se produce con frecuencia, en realidad siempre o prácticamente siempre. Y que es coherente implica que el error se produce de la misma forma, en el mismo sentido, que no es aleatorio.

Un sesgo es un error, siempre es un error, y siempre es negativo. Punto.


Los sesgos de la inteligencia artificial


Cuando hablamos de sesgo algorítmico o de sesgo de la inteligencia artificial nos referimos, por tanto, a que un algoritmo produce un resultado que de forma sistemática y coherente se desvía del valor correcto. 

Así definido, que por cierto es la forma correcta de definirlo, un sesgo es un error y como tal indeseable. 

Un error que, por cierto, no conviene achacar gratuitamente a la 'maldad' de los desarrolladores y que puede deberse a muchos motivos, como muy bien explican Mónica Villas y Javier Camacho en su libro 'Manual de ética aplicada en inteligencia artificial'. Me quedo con dos de las causas que creo más comunes: que el sesgo se encuentra ya en los datos de entrenamiento o que se debe a un problema de muestreo a la hora de seleccionar los datos de entrenamiento que hace que ciertos colectivos o grupos estén infrarrepresentados o no adecuadamente representados. Visto así, el problema está de una forma u otra en los datos y no en la programación del algoritmo. 

En cualquier caso, por si sólo, un sesgo no tiene implicaciones éticas. Se trata sólo de un error, negativo por tanto, pero sin calificación moral.


Sesgos, equidad y discriminación


En realidad el problema ético no es el sesgo algorítmico por sí mismo, sino cuando este sesgo conduce a problemas de equidad y a discriminación en el tratamiento de personas o de colectivos. 

Si un algoritmo, por ejemplo, usado en selección, infravalora sistemáticamente a mujeres o personas de raza negra, tenemos un problema de equidad, una discriminación y, por lo tanto un problema ético.

Si un algoritmo de cálculo de trayectorias de un robot tiene un sesgo, podemos tener un problema operativo, incluso de seguridad, pero no es un problema de equidad ni esencialmente un problema ético.

Ambos sesgos son malos, pero sólo el primero tiene efectos morales.


Sesgos cognitivos


También las personas tenemos sesgos, unos sesgos estudiados desde el campo de la psicología y que se conocen como sesgos cognitivos.

Así, tenemos el sesgo de confirmación que nos hace atender de forma preferente, seleccionar, aquellas informaciones que confirman nuestras propias opiniones, hipótesis y valores. O el sesgo de consenso que nos hace percibir que nuestras propias opiniones son muchos más aceptadas y generalizadas en nuestro entorno de lo que realmente son.


El peor sesgo: el miedo


Y mi reflexión, lo que he pensado recientemente, lo que ha motivado este post es que el peor sesgo que sufre la inteligencia artificial no tiene que ver ni con las matemáticas, ni con la programación, ni siquiera con los datos.

El peor sesgo que sufre la inteligencia artificial es de naturaleza cognitiva y se trata, probablemente, de una variante del sesgo de confirmación: el sesgo del miedo.

Tanto, y de forma a veces irresponsable se nos ha insistido en los riesgos de la inteligencia artificial; tanto y a veces de forma irresponsable se han exagerado los riesgos; tanto y con frecuencia de manera irresponsable se destacan los problemas y los errores; tanto y de forma con frecuencia irresponsable se nos ha querido asustar con eventuales riesgos sistémicos, que el común de los mortales, aquellos que no conocen la tecnología y que no tienen más remedio que juzgar 'de oídas' le tiene miedo a la inteligencia artificial.

Un miedo que, en el fondo, es una reacción bastante natural ante lo novedoso y desconocido, un miedo que ha afectado ya afectará a todas las tecnologías transformadoras que en el mundo han sido. Aconsejo en ese sentido leer los primeros capítulos del libro 'Estupidez artificial' de Juan Ignacio Rouyet.

Pero un miedo que ha sido acrecentado de manera con frecuencia irresponsable por medios de comunicación e, incluso, lo más triste de todo, por algunos expertos en inteligencia artificial.

Y claro, si le tienes miedo a la inteligencia artificial y oyes o lees una charla o artículo que te habla de los beneficios pero también de los riegos ¿Qué sucede? Que actúa el sesgo de confirmación y te quedas con lo negativo, con el miedo. Te olvidas con los beneficios y te quedas con los riesgos. Incluso tiendes a pensar que los riegos no son riesgos sino problemas manifiestos. Sin razonar, sin atender y sin entender

Y si un periodista o community manager obtiene declaraciones de una persona que habla de inteligencia artificial, da igual que esa persona le hable de su maravillosas posibilidades, de sus potencialidades, de sus beneficios, como deslice algo sobre riesgos, eso es lo que irá al titular. El riesgo y no el beneficio. En este caso no sé si es un sesgo de confirmación o una cuestionable política de titulares llamativos.

No estoy hablando de hipótesis: lo he visto con mucha frecuencia y lo he sufrido en primera persona de vez en cuando.

Y ese miedo es el peor sesgo. Es el peor porque es paralizante, porque tiende a ahogar el desarrollo y la innovación y por tanto el progreso social y económico. Y, además, sin lograr ningún objetivo de mejora en cuanto a ética y responsabilidad. Si niegas la inteligencia artificial, lo único que vas a conseguir es que esté en manos de 'los chico malos', pero no vas a conseguir pararla. Te pierdes sus beneficios sin eliminar sus riesgos. 

Un pan con unas tortas, que se diría.


Conclusiones


Para que se entienda claramente, al menos desde mi posición personal: la inteligencia artificial es esencialmente buena, es motor de progreso y riqueza y deberías utilizarla ya, deberías utilizarla de forma responsable, ya.

Y no añadiré nada más para dar menos espacio a los sesgos cognitivos, a los titulares y al miedo.


No hay comentarios:

Publicar un comentario