lunes, 14 de marzo de 2022

Argumentarios sobre armas letales autónomas (LAWS)

Puede ser terriblemente oportuno, y digo terriblemente no al azar, escribir este post en estos días.

Sin embargo ha sido un poco el azar lo que ha determinado el que esto ocurra. El azar o, mejor, el curso de mis lecturas que inspiran una buena parte de los posts que constituyen este blog.

El caso es que, avanzando en la lectura del libro 'Robotics, AI and Humanity', me he encontrado un amplio tratamiento del tema de las armas autónomas o LAWS ('Lethal Autonomous Weapons Systems') y quisiera compartir algunas ideas sobre ellas y el debate ético que las rodea.


Las armas letales autónomas


Sin entrar en definiciones complejas, las armas letales autónomas son un tipo de máquinas dotadas de cierta inteligencia que les permiten de manera más o menos autónoma (es decir, sin intervención humana) la búsqueda de objetivos y su ataque.

Adoptan la forma de drones, algunos tan grandes y sofisticados que parecen aviones, de vehículos acorazados como pequeños, o no tan pequeños tanques, de misiles y, en algún caso, aunque creo que más para un cierto 'postureo' y propaganda mediática que para uso reales, la forma de robots humanoides.

Dadas sus características, en general las podemos considerar una forma, quizá la peor forma, de robots y están equipadas de capacidades procedentes de la inteligencia artificial.

Ética de las armas letales autónomas


Gregory Reichberg (izq) y Henrik Syse (der)
Parece casi paradójico, pero lo cierto es que, como en tantos temas relacionados con la robótica y la inteligencia artificial, alrededor de las armas letales autónomas existe también un debate de carácter ético.

Y es ese debate lo que origina este post.

En concreto, quisiera recoger los argumentos a favor y en contra de las armas letales autónomas que me encuentro en el capítulo firmado por Gregory Reichberg y Henrik Syse del Peace Research Institute Oslo (PRIO)  y titulado 'Applying AI on the Battlefield: The Ethical Debates'.

Veamos

Argumentos en favor de las armas letales autónomas


Si, aunque pueda sorprender, existen argumentos éticos a favor de las armas autónomas.

El primer argumento que se aduce es el de la racionalidad de las máquinas letales autónomas frente al caso de humanos o armas manejadas por humanos que se ven afectados por emociones. 

Al no ser susceptibles de las alteraciones causadas por las emociones, se podría confiar en que, si se encuentran bien programadas, se adherirían estrictamente a las reglas existentes para conflictos armados.

Esto podría evitar atrocidades que se cometen en las reglas y se podría evitar, por ejemplo, la muerte de civiles proponiéndose, además, que el robot militar podría, incluso, sacrificarse a sí mismo para salvar vidas de civiles, cosa que en un humano no existen garantías de que suceda, ni siquiera de que sea, esto es ya mi opinión, claramente exigible.

Finalmente, se argumenta la precisión en el marcado y destrucción de objetivos.

Argumentos en contra de las armas letales autónomas


Existen también, como cabe imaginar, abundancia de argumentaciones en contra de las armas letales autónomas.

En primer lugar se indica que, dado que las decisiones de tipo militar se producen en situaciones de alta imprevisibilidad, alta contingencia, se argumenta que es imposible dotar a las máquina autónoma de suficientes criterios para que la decisión que adopte sea correcta desde un punto de vista moral.

En segundo lugar, y de forma en cierto sentido paradójica, se alude a la falta de emociones de las máquinas autónomas. Digo que es paradójico porque, precisamente, la falta de emociones es un factor que se ha argumentado como ventaja ética de las máquinas como hemos visto. Aquellos que entienden que la ausencia de emociones es un factor en contra de las armas letales autónomas, defienden que precisamente las emociones son un ingrediente imprescindible de la agencia moral y que ayudan a un juicio apropiado acerca de lo que se debe o no se debe hacer.

Un tercer argumento conecta con la dignidad humana y con el principio según el cual en el caso de muerte ésta sólo debería ser producida por otro ser humano, nunca por una máquina decidiendo de manera autónoma.  La verdad es que resulta chocante hablar de dignidad cuando un ser humano mata a otro pero los autores nos explican que esto se produce en el contexto de guerra en la cual, supuestamente, existe un cierto código de honor y reglas de conducta.

Enlazando un poco con ese código de honor, el cuarto argumento en contra nos habla de la necesidad de igualdad moral ('moral equality') de los combatientes para que se puedan mantener ese código de honor y esas reglas que se supone informan la guerra actual. En el caso de que un combatiente sea una máquina, no parece que se mantenga esa igualdad moral.


Consideraciones prácticas


Los argumentos vistos anteriormente, son unos argumentos, digamos, basados en principios éticos.

Los autores del capítulo mencionado añaden otras consideraciones éticas que, más que de unos principios, parten de unas consideraciones prácticas sobre el estado actual de la tecnología o de si este tipo de armas producirán más bien que daño o al contrario.

De todas formas, no entraremos, al menos de momento, en ellas y remitimos al lector que quiera profundizar más al texto original.


Una consideración necesaria


Antes de concluir creo que es pertinente hacer una consideración previa.

Los argumentos a favor y en contra, de alguna manera, asumen que la guerra existe y existirá, que las armas existen y existirán, y que los seres humanos se matan y matarán y destruyen y destruirán objetivos del enemigo. Y es en ese contexto en que se valoran las armas letales autónomas.

Sin embargo el contexto es, desde un punto de vista ético y moral, en sí mismo inaceptable. Al menos, eso creo.

Desde luego, sabemos que las guerras han llenado todos los siglos y milenios de historia de la humanidad. Y, siendo realistas, y tenemos una terrible prueba en estos mismos días, no parece que las guerras vayan a desaparecer en un plazo corto. Quién sabe si, por desgracia, acompañen siempre a la humanidad.

Pero es difícil hablar de moralidad en entornos de guerra cuando la guerra, como concepto, debería ser, creo, considerada inmoral en sí misma, con independencia de que en casos particulares podamos entender e incluso justificar una guerra meramente defensiva. 

Y si la guerra la consideramos inmoral, resulta complicado aducir argumentos éticos en favor de armas aunque consideraciones pragmáticas que tienen que ver con es inevitabilidad aparente de la guerra.

Conclusión

 
Hemos visto una serie de argumentos éticos a favor y en contra del uso de armas letales autónomas, unos argumentos que creo que debemos entender supeditados a la siempre cuestionable pregunta de si una guerra puede en sí misma ser ética.

Y unos argumentos que, en cierto sentido, reafirman la dificultad de emitir juicios morales ya que, incluso en entornos de guerra y hablando de armas, las posiciones éticas no son nítidas y están sujetas a debate.

¡Qué no podrá ocurrir en otros debates éticos!

No hay comentarios:

Publicar un comentario