lunes, 6 de febrero de 2023

Razones a favor de los robots como agentes morales

Retomo, aunque sea muy brevemente, en este artículo, a la cuestión de la eventual agencia moral de los robots, algo que ya toqué en el post titulado 'Características de los agentes morales y el caso de los robots' y anteriormente en 'Tres criterios para considerar a un robot un agente moral'.

Y vuelvo a ello a propósito de la lectura del libro 'This is machine ethics' de Sven Nyholm, quien a su vez también abordo el tema en su fantástico libro 'Humans and robots'. 

En este caso, en el capítulo que dedica a este problema de la agencia moral de las máquinas intentando contestar, tanto a si pueden ser agentes morales como a si deben, si es deseable que lo sean.


Agentes morales


Decir que un ente es agente moral, es decir que tiene juicio suficiente para entender las cuestiones morales y actuar en consecuencia. En esa línea, en el libro se recogen, aunque de pasada, algo parecido a una definición que reza:


an entity that can make moral judgements and that can act on the basis of moral considerations.


Es evidente que los seres humanos somos agentes morales, pero no está claro que ningún otro ente, ni siquiera otro ser vivo lo sea. ¿Y los robots?

Antes de seguir, advertir que, en realidad, Nyholm no se refiere específicamente a robots sino, de una forma más amplia, a máquinas éticas o morales. Pero, dado que me interesan especialmente los robots, 'arrimo el ascua a mi sardina' para particularizarlo en los rotos, 


Argumentos a favor de los robots como agentes morales


Creo que está bastante claro que, al menos hoy en día, los robots no pueden ser agentes morales, en el sentido de que no tienen ese juicio moral. Otra cosa es que, en su diseño se les pueda imprimir alguna forma de regla o se le intente enseñar alguna forma de comportamiento que siga las reglas éticas que los humanos nos hemos impuesto.

La pregunta se dirige, pues, mas bien hacia si tiene sentido el proyecto de intentar conseguir máquinas o robots que sean agentes morales. En su desarrollo, menciona las teorías de trabajo de Michael Anderson y Susan Leigh Anderson quienes argumentan tres razones en favor de esa aspiración a la agencia moral:


  • En primer lugar, porque existen máquinas como resultado de cuyas acciones, se pueden producir daño o, por el contrario, ayuda a los seres humanos. Siendo así, entienden que es mejor que tengan criterios éticos.

  • En segundo lugar, piensan que si fuésemos capaces de construir robots (máquinas en realidad) con criterios morales, eso contribuiría a mitigar la preocupación que en las personas generan los posibles riesgos derivados de este tipo de máquinas autónomas.

  • Finalmente, entienden que si somos capaces de diseñar máquinas éticas, eso nos ayudará a comprendernos mejor a nosotros mismos, los humanos.


¿Es esto suficiente para emprender la búsqueda de máquinas morales?


Conclusión


Ni que decir tiene que existen opiniones en contra. En el próximo post, las repasaremos también brevemente.



No hay comentarios:

Publicar un comentario