miércoles, 28 de febrero de 2024

Seis tipos de preocupaciones éticas que producen los algoritmos

Como comentaba en un post anterior, el titulado 'Un mercado de principios éticos',  el hecho de que la ética de la inteligencia artificial esté de moda, trae consigo el que abunden y de manera creciente, declaraciones de riesgos y de principios que, aunque coinciden y se superponen en buena medida, a veces parecen hacer algo inabarcable el dominio de la disciplina.

Así que puede venir bien un poco de estructura

Y una estructuración es precisamente la que me he encontrado y quería comentar leyendo el libro 'The ethics of artificial intelligence' de Luciano Floridi.


Una estructuración de preocupaciones éticas


En realidad, aunque lo recoge en su libro, Floridi se apoya en un artículo, 'The ethics of algorithms: Mapping the debate' del cual el propio Floridi es co-autor, aunque el autor principal (al menos el primero) es Brent Mittelstadt.

La estructuración se basa en la asunción por parte de los firmantes de que que los algoritmos se pueden utilizar, básicamente, para tres cosas, a saber:


  • Convertir datos en evidencias lo que lleva preocupaciones epistemológicas.
  • Motivar acciones que pudieran tener consecuencias éticas lo que conduce a preocupaciones normativas.
  • Asignar responsabilidad por los efectos de dichas acciones lo que nos lleva a preocupación por la trazabilidad.


Y con base en ello, identifican seis grandes tipos de preocupaciones éticas, que encajan en esas tres ideas dando lugar a la siguiente figura obtenida del propio artículo:


Fuente: 'The ethics of algorithms: Mapping the debate'. Mittelstadt et. al


Los seis tipos de preocupaciones


Y una breve descripción de dichas preocupaciones (en un resumen algo apresurado de lo que Floridi vuelca en su libro) podría ser:


  • Preocupaciones epistemológicas Relacionadas con la conversión de datos en evidencias se centran en la calidad y precisión de los datos y hasta qué punto las conclusiones de los algoritmos son justificables. Y en este terreno, se identifican tres tipos de preocupaciones éticas:

    • Evidencias no concluyentes ('inconclusive evidence'): Se refiere al hecho de que los algoritmos de machine learning no deterministas produzcan resultados expresados en términos probabilísticos, identificando relaciones de asociación y correlación pero no causales lo cual puede conducir a identificar patrones donde no existen y pueden desviar la atención de las verdaderas causas subyacentes a un problema. Además, se entiende que los resultados pueden estar parcialmente condicionados por los mecanismos de recolección de datos para su entrenamiento.

    • Evidencias inescrutables ('incscrutable evidence'): Se refieren a la falta de trasparencia debido a características tecnológicas (como pudieran ser los algoritmos de caja negra) o legales (protección de propiedad intelectual). En cualquier caso los autores entienden que eso se traduce en falta de supervisión y responsabilidad y conduce a falta de fiabilidad.

    • Evidencias equivocadas ('misguided evidences'): Se refieren fundamentalmente a la presencia de sesgos o a usos cuestionables de los algoritmos.

  • Preocupaciones normativas Se relacionan con la motivación de las acciones y se refieren al impacto ético de las decisiones adoptadas algorítmicamente o basadas en algoritmos.

    • Resultados injustos ('unfair outcomes'): se refiere a la posibilidad de resultados injustos que se entiende de cuatro formas diferentes según los autores: que no se utilicen las variables adecuadas en el entrenamiento para reconocer a ciertos colectivos, que la capacidad predictiva no sea igual para todo tipo de grupos, que el algoritmo no esté bien calibrado o que no se consiga una paridad estadística.

    • Efectos transformadores ('transformative effects') que afecten a autonomía o privacidad: Así, se entiende que la afectación a la autonomía puede venir de tres fuentes: omnipresencia y proactividad de los algoritmos para informar de las opciones del usuario, entendimiento limitado de los algoritmos por parte de los usuarios o falta de poder sobre los resultados de esos algoritmos. La afectación a la privacidad, por su parte, nace de la creciente interacción de personas con sistemas algorítmicos lo que reduce la capacidad del individuo para controlar quién tiene acceso a esa información y que puede conducir al perfilado del usuario, algo de lo que éstos pueden no ser del todo conscientes.

  • Trazabilidad: Se relaciona con la asignación de responsabilidad y se enfoca en la trazabilidad o cadena de eventos y factores que conducen a un resultado específico, buscando la atribución moral de responsabilidad.

Esta tipología merece, desde luego, una revisión crítica más profunda que lo que aquí he hecho, que es poco más que un resumen 'apretado' de la exposición que, en realidad, es bastante más amplia y pormenorizada. 

Pero, de momento, ahí lo dejo como una guía posible.


Conclusiones


Sin atreverme a afirmar que sea completa ni plenamente acertada (ni tampoco lo contrario), la propuesta de Floridi (y del resto de firmantes del artículo) parece una estructuración interesante por lo clara y estructurada.


No hay comentarios:

Publicar un comentario