viernes, 28 de enero de 2022

Seis criterios de imparcialidad algorítmica... y alguna reserva

Es conocido que uno de los temas más citados cuando se habla de problemáticas éticas ligadas a la inteligencia artificial y el machine learning es el de los sesgos. 

En cierto sentido, y como imagen especular, con la problemática de los sesgos ('bias') se relaciona la aspiración a la imparcialidad ('fairness').

Vamos a hablar un poco de ellos.


Sesgo e imparcialidad


El sesgo ('bias') se produce, en el entorno de la inteligencia artificial, cuando la aplicación de un algoritmo a un ámbito concreto produce unos resultados que, de manera global, no trata a todos los colectivos por igual sino que favorece y, sobre todo, perjudica a alguno de ellos. Las colectivos 'víctimas' suelen ser los habituales, no solo en la inteligencia artificial sino en la sociedad: mujeres, personas de raza no blanca, personas mayores, etc.

Como decía, un poco a la idea del sesgo, como defecto, se opone la idea de la imparcialidad ('fairness') como aspiración, es decir, el tratar a todos los colectivos e individuos de una manera justa y, digamos, con igualdad de oportunidades.

Hago un breve paréntesis para hacer notar al lector cómo, por cada término, hasta ahora sesgo ('bias') e imparcialidad ('fairness'), estoy incluyendo su denominación en inglés. El motivo es que, al menos en mi percepción, los términos en inglés tienen algún matiz que no estoy seguro de que quede reflejado claramente en su traducción al castellano. Sobre todo, en el caso de 'fairness', hay varias traducciones posibles. Podría traducirlo, por ejemplo, como 'justicia' pero creo que, aparte de que colisionaría con la traducción de 'justice', también utilizada en el ámbito de la ética y la normativa, no sé si es la mejor forma de entender lo que 'fairness' significa. En cualquier caso, al anotar el término en inglés, dejo al lector suficientemente avezado, la libertad de pensar en castellano en los términos que considere más convenientes.  

Para lo que sigue, y sobre todo para lo que tengo en mi mente y que insinuaré al final del post, me parece más conveniente hablar de imparcialidad como traducción de 'fairness'.


Los seis criterios de imparcialidad


Bueno, el caso es que, la muy loable búsqueda de la imparcialidad ('fairness') en los algoritmos, o si se prefiere, la eliminación de los sesgos ('bias'), es un objetivo más elusivo de lo que se pudiera pensar. 

En este post, y alguno que seguirá, voy a reflejar y comentar alguna idea que se aporta ya hacia el final del libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig que tantos otros artículos de este blog ha inspirado ya.

Bueno, el caso es que estos autores, en el penúltimo capítulo, dedicado a la ética de la inteligencia artificial, enumeran seis criterios, seis requisitos o seis formas de entender qué es la imparcialidad o cómo debería ser un algoritmo para ser considerado imparcial.

Son los siguientes:


  • Imparcialidad individual ('individual fairness'): requisito de que cada individuo sea tratado de forma similar a otros individuos con independencia de a qué clase pertenezca. Por clase, entiéndase cosas como las que apuntábamos antes: género, raza, edad,...

  • Imparcialidad de grupo ('group fairness'): requisito de que dos clases sean tratadas de forma similar lo cual sea demostrable estadísticamente.

  • Imparcialidad a través de la inconsciencia ('fairness through unawareness'): requisito de que si eliminamos atributos referentes a aspectos sensibles como el género o la raza de un conjunto de datos ('dataset'), el algoritmo no pueda discriminar con base en esos atributos. Para los que no conozcan mucho de machine learning este requisito puede parecer absurdo o evidente: si eliminamos del conjunto de datos el género o la raza ¿Cómo va a el algoritmo a discriminar con base en esos atributos? Bueno, el caso es que en muchas ocasiones sí que puede. ¿Por qué? Pues porque existen otras muchas variables, variables 'proxy', que dan 'pistas' muy fiables, a veces seguras, del valor de esos atributos que pensábamos habíamos eliminado del conjunto de datos.

  • Igual resultado ('equal outcome'): requisito de que cada clase demográfica obtenga los mismos resultados, que es lo que se conoce también como paridad demográfica ('demographic parity'). Así, los autores aportan el ejemplo de los préstamos bancarios explicando que la paridad demográfica garantizaría que se concede el mismo volumen de préstamos a hombres y mujeres. También destacan que esta paridad demográfica, no asegura que se cumpla otro de los criterios, como es el de la imparcialidad individual.

  • Igual oportunidad ('equal opportunity'): requisito, también denominado equilibro ('balance'), que significa, llevado al ejemplo del préstamo, que si un individuo tiene capacidad de devolver el préstamo debe serle concedido independientemente de que se trate, digamos, de hombre o mujer. Los autores señalan, con acierto, que cumplir este criterio nos puede llevar a no cumplir el de igual resultado si, inherentemente, hay diferencias en la capacidad para devolver el préstamo entre hombres y mujeres.

  • Igual impacto ('equal impact'): parecido al anterior pero yendo un poco más allá, pues pide que la utilidad ('utility') esperada ante una situación como la del préstamo sea igual independientemente de la clase a la que se pertenezca, es decir, se valoran tanto los beneficios de una predicción verdadera, como los perjuicios de una predicción falsa.  


Como se puede observar, se trata de criterios que, cada uno por separado puede ser bastante razonable y que, seguramente, tenderíamos a dar por buenos y deseables. Y sin embargo, en alguna ocasión pueden ser al menos parcialmente contradictorios, como se ha apuntado.

Y, por otro lado, queda un poco pendiente la 'operacionalización' del criterio, cómo se trasladan al caso de algoritmos reales y concretos.


... y alguna reserva


Aunque, si no entramos en profundidades, el objetivo de eliminar sesgos y de alcanzar la imparcialidad, seguramente lo compartamos todos, lo cierto es que, en el detalle creo que sí puede haber discrepancias.

Al menos yo no me siento cómodo con algunas propuestas o insinuaciones, en lo algorítmico e incluso en lo no algorítmico.

A veces tengo la impresión de ser algo divergente en estos asuntos de ética de la inteligencia artificial, de tener opiniones algo distintas a las que se observan en los discursos dominantes.

En concreto, en el tema de los sesgos y la imparcialidad, pero no sólo en él, tengo reservas con respecto a ese discurso dominante y alguna idea que considero no bien recogida.

No obstante, de momento me las voy a guardar. Quiero pensármelas mejor e investigar algunos temas.

Cuando haya despejado dudas y tenga mis propuestas más claras, seguramente escriba algún post al respecto, pero de momento lo dejo en ese cierto suspense, en esa mera insinuación de mis reservas con las ideas dominantes, o que me parecen dominantes, sobre sesgo e imparcialidad.


No hay comentarios:

Publicar un comentario