miércoles, 7 de abril de 2021

Robots, agencia y la inspiración de la ley

No es fácil razonar de forma rigurosa a propósito de ética y mucho menos de ética aplicada a un territorio tan interesante pero al tiempo tan nuevo, complejo y en evolución como es el caso de los robots inteligentes y la relación entre robots y personas

Es difícil, y de hecho hasta la fecha poco he encontrado en ese sentido: argumentos o modelos que permita razonar, de una manera racional, objetiva y serena sobre aquello que cabe considerar ético y aquello que no, en este caso, con respecto a los robots.

Muchos planteamientos suelen pecar, en mi opinión, de apriorismos, prejuicios y quizá, en cierto sentido, cierta visceralidad.

Y por eso me ha gustado mucho el planteamiento que hace Sven Nyholm, profesor de la Universidad de Utrecht en su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. Nyolm nos ofrece un análisis muy ordenado sobre las capacidades de los robots y reflexiona sobre ellas desde un punto de vista ético y filosófico pero con muy buen entendimiento de la realidad objeto de análisis, los robots, sin mitos ni sensacionalismos.

Agencia


Central en el razonamiento de Nyholm está el concepto de agencia, un concepto sobre el que también tenía ganas de profundizar. Un concepto, además, algo confuso y en el que creo que el término (que he traducido literalmente del término inglés 'agency') puede confundir algo en su versión castellana.

Nos explica el propio Nyholm que se trata de un concepto filosófico algo complejo que se refiere a una capacidad o al ejercicio de esa capacidad. Una capacidad, y sigo con la explicación de Nyholm, que es compleja y que recoge la capacidad para actuar, tomar decisiones, razonar acerca de cómo actuar, interaccionar con otros agentes, hacer planes para actuar, evaluar acciones pasadas, asumir la responsabilidad de nuestras acciones, etc. De alguna forma tiene que ver, resumo, con la capacidad de actuar y la reflexión y control sobre esa acción.

Y, en efecto, se trata de una característica que no parece fácil definir, pero no me resulta demasiado difícil de entender así explicada. Y una característica que parece indudable que poseemos los humanos.

¿ Y los robots?

Esa es buena parte de la discusión.


Tipos de agencia


En su razonamiento, Nyholm propone distinguir varios tipos de agencia. En concreto, habla de cuatro:
  • Agencia básica y específica de un dominio: Persigue objetivos basándose en representaciones, dentro de un dominio o dominios limitados.

  • Agencia basada en principios y específica de un dominio: Persigue objetivos basándose en representaciones en un modo que está regulado y constreñido por ciertas reglas o principios y dentro de unos dominios limitados.

  • Agencia basada en principios, supervisada y respetuosa: Persigue objetivos basándose en representaciones, en un modo que está regulado por ciertas reglas o principios, al tiempo que está supervisado por alguna autoridad que puede detenernos o a la que se puede ceder el control, al menos dentro de ciertos dominios limitados.

  • Agencia responsable y específica de un dominio: Persigue objetivos en un modo que es sensible a las representaciones del entorno y que está regulado por ciertas leyes o principios acerca de qué hacer o no hacer, al tiempo que tienen la capacidad de entender la crítica a la propia agencia, junto con la capacidad de defender o alterar las propias acciones basado en los propios principios o la crítica razonada de la propia agencia.

Y luego traslada estas formas de agencia a los robots y, en concreto, a los vehículos autónomos. Y está claro que, según el tipo de robot y su sofisticación, sí pueden exhibir ciertos niveles de estos tipos de agencia.

De la ética a la ley


En ese análisis de la agencia trasladada a vehículos autónomos, Nyholm razona, acerca de la responsabilidad en casos de, por ejemplo accidentes, según el tipo de agencia y la compara con otros escenarios llevados a cabo por humanos.

El tipo de agencia le ayuda a determinar la responsabilidad de un acto ejecutado por un robot (un vehículo autónomo) o un humano. 

No solo eso, sigue su razonamiento y de alguna forma traslada esa responsabilidad, que en cierto modo es puramente ética, a un terreno más cercano a lo legal ('liability'). Es decir, razonando en términos éticos deduce quien, en función de la agencia, tiene una responsabilidad real, y luego deriva que responsabilidad sería exigible e incluso penalizable desde un punto de vista más legal. 

No voy a desentrañar todo el razonamiento, por no alargarme en exceso y por respetar la autoría intelectual de Nyholm, pero sí quisiera insistir en que me ha gustado mucho esa forma de razonar, que aúna de una forma creo que muy ordenada y razonable, una visión ligeramente técnica (entendiendo lo que los robots pueden y no pueden hacer) con la ética y la legal.

Creo que ese es el camino adecuado: entender la realidad (que puede ser técnica) que quieres regular, establecer los criterios morales y, a partir de ahí, intentar derivar leyes que favorezcan el comportamiento moral y castiguen, en su caso, el inmoral.

No hay comentarios:

Publicar un comentario