lunes, 26 de octubre de 2020

Elementos funcionales y éticos para la confianza en la Inteligencia Artificial

Existe un interesante y afortunado interés y debate acerca de la aplicación de principios éticos en torno a la robótica y la inteligencia artificial, un asunto en el que, además, la Unión Europea está adoptando un papel muy activo.

Confianza e imparcialidad

Cuando queremos operativizar esa interés, cuando queremos empezar a pensar en obtener algún tipo de conclusiones o resultados, es necesario empezar a concretar de qué estamos hablando exactamente. A modo de ejemplo y como una primera orientación al respecto me encuentro con la aportación que se realiza en el libro 'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh,

En esta obra se centran mucho en los conceptos de confianza ('trust') e imparcialidad ('fairness'), y muy especialmente en el aspecto de confianza.

Elementos funcionales de la confianza

A la hora de abordar esa confianza, distinguen dos tipos de factores o elementos. Por un lado, los elementos de carácter funcional que son, si se quiere, de naturaleza más técnica u operativa. Así, nos indican que tendremos más confianza ('trust') cuando los sistemas sean más robustos y fiables ('dependability'), con bajo número de falsas alarmas o falsos positivos, que sean claros y trasparentes ('transparency') y, en general que no puedan causar daño.

Elementos éticos de la confianza

Por otro lado, están los elementos de carácter ético. Para este apartado, que es en el que más nos queríamos centrar, proponen cinco principios, basándose en las ideas del grupo AI4People,  Según este modelo, cinco son esos elementos éticos de la confianza:

  • No maleficencia ('Non-maleficence'): Un principio muy sencillo en su expresión que establece qu ela Inteligencia Artificial no debe hacer daño a las personas. Y no se refiere especialmente a daño físico. De hecho, algunos de los aspectos en que se centran los autores es en el 'bullying' en social media o en el discurso del odio.

  • Beneficencia ('Beneficence'): Es la visión positiva y contraria a la anterior. La Inteligencia Artificial debe hacer el bien a las personas. Como ilustraciones de lo que esto puede suponer se propone la reducción de accidentes mediante vehículos autónomos, el uso de robots como soporte y ayuda para una población envejecida, uso de telemedicina en zonas remotas, uso de robots en educación, etc

  • Autonomía ('Autonomy'): La autonomía se refiere a la autonomía de las personas, no de los agentes inteligentes y a lo que refiere es a que las personas deben mantener su capacidad de tomar decisiones.

  • Justicia ('Justice'): Este principio establece que la Inteligencia Artificial debe actuar de una manera recta ('just') y no sesgada ('unbiased').

  • Explicabilidad ('Explicability'): Y este quinto principio se refiere al requisito de que sea posible explicar por qué un sistema de Inteligencia Artificial ha llegado a una cierta conclusión o resultado.

Conclusión

Se trata, como se puede apreciar de principios bastante generales pero que, por lo menos, nos ponen un poco de orden acerca de qué estamos hablando y eso puede ayudar a centrar acciones y objetivos. 

En ese afán de alcanzar una visión ordenada y operable de los principios éticos a tener en cuenta, no descarto ir volcando en este blog otras visiones que me pueda ir encontrando u otras conclusiones que yo mismo pueda ir alcanzando.


No hay comentarios:

Publicar un comentario