En otras ocasiones, hablamos más de un uso ético de la tecnología como cuando pensamos en limitar las armas autónomas
Pero existe al menos una tercera vertiente, ligeramente diferente de las anteriores que es cuando lo que pretendemos es que las propias máquinas o algoritmos tengan un comportamiento ético, un planteamiento que gana más sentido cuando pensamos en máquinas muy avanzadas con crecientes capacidades, sofisticación, y sobre todo, autonomía como la de los robots más avanzados existentes o con posibilidad de existir en un futuro no muy lejano.
Y, en ese sentido, podríamos hablar de una máquina ética. Ahora bien ¿Qué entendemos por una máquina ética? Existe una definición debida a Michael Anderson y Susan Leigh Anderson expresada en su artículo "Machine Ethics: Creating an Ethical Intelligent Agent" y que llega hasta mi a través de Sven Nyholm y su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'.
Esta es la definición:
a machine that itself follows an ideal ethical principle or set of principles; that is to say, it is guided by this principle or those principles in decisiones it makes about possible courses of action it could take.
Es decir, una máquina que, de alguna forma, sea consciente de unos principios éticos y se atenga a ellos. Aunque parece que, con independencia de su viabilidad, de la cual a lo mejor hablo en otro artículo, tiene sentido como aspiración este tipo de máquinas éticas, me ha parecido interesante traer aquí los tres motivos que los autores aportan para el desarrollo de máquinas éticas y, más en concreto, robots éticos. Son estas tres:
- Porque existe lo que llaman 'ramificaciones éticas' en el comportamiento de los robots, es decir, que los robots pueden tanto ayudar como hacer daño, tanto producir resultados positivos como negativos y por tanto, parece aconsejable que se atengan a criterios éticos.
- Porque la construcción de robots que sigan principios éticos ayudaría a mitigar la preocupación de la personas acerca de las máquinas autónomas.
- Y, quizá el argumento más interesante, al menos intelectualmente, porque el intento de construir robots éticos nos puede ayudar a comprender mejor el propio comportamiento humano.
La verdad es que se trata de tres argumentos muy diferentes. El primero más práctico y más cercano, en cierto modo, al razonamiento técnico e incluso legal. El segundo es una especie de 'gestión del cambio' una forma de promover la aceptación de los robots. El último, en fin, es el más filosófico o más humanístico, si se prefiere.
Los tres me parecen correctos, los tres interesantes, y con los tres estoy de acuerdo aunque, eso sí, se trate de unos planteamientos más de alto nivel y de intenciones que de aplicación directa. La dificultad estriba, en realidad, en llevar estas ideas a la práctica.
Seguiremos con ello.
No hay comentarios:
Publicar un comentario