miércoles, 26 de abril de 2023

Tres categorías de moral para unos robots con autonomía

En un artículo anterior comentábamos cuatro categorías de agentes éticos siguiendo la propuesta de James H. Moor explicada, y adaptada al caso de los robots, por Robin R. Murphy en su libro 'Introduction to AI robotics'.

Este post es un poco una continuación del anterior pero para revisar otra propuesta parecida que, en este caso, identifica tres categorías de moral que traslada a la aplicación aplicación en el caso de robots autónomos.


Las tres categorías de moral


Estas tres categorías, también recogidas por Murphy, proceden del libro 'Moral machines: teaching robot right from wrong' de Wendell Wallach y Colin Allen. Y las tres categorías son las siguientes:


  • Moralidad operativa ('operational morality'): donde la responsabilidad y rendición de cuentas sobre la función moral de los robots recae sobre sus diseñadores y usuarios.

  • Moralidad funcional ('functional morality'): En este caso el robot goza de cierta autonomía (ej. piloto automático) o trabaja en aplicaciones de sensibilidad moral como, por ejemplo, decisiones médicas. A pesar de esa autonomía del robot, la responsabilidad sigue recayendo sobre diseñadores y usuarios. La autora propone el ejemplo del vehículo autónomo donde la responsabilidad, en caso de accidente, parece seguir recayendo sobre los diseñadores aunque, personalmente, creo que esto está sujeto a mucho más debate ético y sobre todo jurídico y el camino a tomar no creo que esté tan claro.

  • Agencia moral completa ('full moral agency'): Donde nos encontramos ante un robot muy sofisticado y con capacidades de reflexión y deliberativas que incluyen la toma de decisiones en situaciones éticas. Este punto, me parece, que es todavía más objeto de debate filosófico y sólo ligeramente jurídico y no tengo claro que sea una situación real a día de hoy, aunque pudiera serlo en un futuro no tan lejano.


Conclusión


Aunque este tipo de modelos pueden parecer demasiado teóricas, lo cierto es que las consideraciones sobrre agencia, por ejemplo, informan muchas de las decisiones jurídicas sobre responsabilidad y rendición de cuentas y tienen aplicación ya a día de hoy. 

Las visiones más futuristas y sujetas a debate, como la eventual agencia moral de un robot, quizá sean algo más especulativa, pero conviene hacerlas ya para estar preparados para cuando realmente debamos decidir, no sólo a nivel moral sino también jurídico y normativo. 

Y puede que eso ni esté tan lejos.


No hay comentarios:

Publicar un comentario