lunes, 11 de enero de 2021

Nueve obligaciones éticas a respetar en computación afectiva

Diría que la ética en Inteligencia Artificial está de moda... con lo bueno y malo que tiene el que algo importante se ponga de moda.

Considero un efecto positivo de la moda el que se ponga foco y haya trabajo, en algún caso trabajo serio. Pero considero peligroso que se banalice y malbarate la disciplina.

Y, desde luego, ante la abundancia de información se puede crear confusión y desorientación.

Tengo interés, por ello, y en ello pienso trabajar un poco en el asunto próximamente, en intentar censar de una manera ordenada y abarcadora, pero espero que no muy complicada, las problemáticas éticas en relación con la inteligencia artificial, la robótica y, específicamente, el área de trabajo en Human-Robot Interaction.

En relación con esa temática, una fuente interesante es el capítulo que con respecto a las problemáticas éticas en 'affective computing' firma Roddy Cowie dentro del fantástico libro coral 'The Oxford Handbook of Affective Computing'. En ese capítulo, hace un amplio recorrido por esos puntos éticos que afectan a la computación afectiva. Cuando finaliza dicho capítulo el autor señala, no sin cierta sorpresa que, en el fondo, toda esa larga serie de problemáticas se pueden recoger en una lista corta de nueve obligaciones que debería respetar toda aquella persona que trabaje en computación afectiva.

Estos son esas nueve obligaciones:

  • Entender las premisas en que se basan los juicios éticos y y reconocer el hecho de que otros podrían mantener unas premisas éticas diferentes a las nuestras.

  • Acatar los códigos éticos que gobiernan los estudios con seres humanos y la privacidad de los datos.

  • Defender el valor ético de hacer que las interacciones entre humanos y máquinas den como resultado más probable un afecto positivo que un afecto negativo.

  • Intentar asegurar que los sistemas que construyen no harán nada a terceros de lo que ellos mismos no quieran ser objeto y nada a lo que los usuarios pondrían objeciones caso de saber que está sucediendo.

  • En relación con el punto anterior, asegurar que sus sistemas no engañan a las personas y tampoco infringen su autonomía.

  • Asegurarse de conocer de forma clara, las capacidades y limitaciones de sus sistemas basado en un entendimiento adicional de las capacidades humanas correspondientes.

  • En la comunicación con personas no expertas, deberían ayudar a hacer evaluaciones realistas, tanto de las capacidades de sus sistemas como de los riesgos que pueden traer consigo.

  • Ser sensibles a las implicaciones morales anexas a los términos que se utilizan y los modelos que se proponen.

  • En el caso de que en sus áreas de trabajo se generen otras problemáticas éticas, deberían familiarizarse con ellas.

Algunas de esas obligaciones, especialmente la primera, son muy genéricas y aplican a casi cualquier consideración ética, más allá del affective computing y más allá, también, de la inteligencia artificial y la robótica. Otras, donde se menciona a sistemas, por ejemplo, claramente se enmarcan en ámbitos técnicos en que se trabaja con máquinas que se relacionan con personas.

Quizá destacaría un mensaje no técnico que contienen la primera y última obligación y que percibo como la necesidad de conocimiento, un conocimiento honrado, abierto y transversal. Transversal para no quedarse en nuestra disciplina de experiencia propia sino ser capaz de trascenderla conocer y entender otras disciplinas contiguas (o no tanto) que solapan de alguna forma con la nuestra, como se punta en la última obligación. Y honrado y abierto para reconocer que no existe una visión universal de la moral ni de la ética, como se explicita en la primera obligación y, por tanto, se necesita mente abierta y actitud de diálogo sincero.
 
No cierra este planteamiento, ni mucho menos, el censo que me gustaría hacer de problemáticas éticas en robótica e inteligencia artificial, pero apunta cosas muy interesantes con las que me quedo.
 

No hay comentarios:

Publicar un comentario