lunes, 18 de diciembre de 2023

Visiones fenomenológicas / conductuales del estatus moral de los robots

Quizá el título de este post asuste un poco. Quizá parezca 'demasiado filosófico', quizá demasiado teórico, pero en realidad no va a ser, ni mucho menos, tan difícil de entender.


A vueltas sobre el estatus moral de los robots


Todo esto viene a cuento sobre si los robots, especialmente robots avanzados, deben de tener alguna forma de estatus moral, en el sentido de agencia moral pero, especialmente, de paciencia moral, es decir, si debemos tener alguna  forma de respeto, cuidado o consideración moral hacia los robots.

Y recojo en este post, fundamentalmente, una parte del discurso de David Gunkel, en su último libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond'. 

Ahí, el autor hace un recorrido por las diversas posiciones que respecto a ese estatus moral han hecho diversos autores.

Primero nos resume algunas visiones más ontológicas, en el sentido de que los robots podrían tener o no estatus moral o derechos en función de su propia naturaleza (y si se acercan más a ser una persona o una cosa).


La visión fenomenológica


Pero lo que quiero recoger aquí son varias posiciones de naturaleza, espero utilizar bien el término, fenomenológicas, es decir, que 'no se empeñan' en deducir el estatus moral a partir de la naturaleza de los robots sino de su comportamiento externo, de lo que podemos percibir de ellos, de nuestras relaciones con ellos.

Y lo cierto es que varios autores, y varios autores relevantes, apuestan por esta visión.


La posición de Mark Coeckelberg


El primero que nos menciona Gunkel es Mark Coeckelberg. Coeckelberg dice que, en la práctica, cuando decidimos cómo tratar a un ente, no lo hacemos analizando su naturaleza interna sino sólo cómo se aparece ante nosotros y, en este sentido, Coeckelberg sugiere:


If robots were sufficiently advanced - that is, if they managed to imitate subjectivity and consciousness in a sufficiently convincing way - they coud become others (or at least quasi others) that matter to us in virtue of their appearances.


y Coeckelberg remata con una frase muy directa, relacionando las exigencias morales que hacemos a humanos frente a las que hacemos a los robots:


Why put such high demands on robots if we do not demand this from humans?


Ahí queda eso. 

Como se afirma en otros entornos de la ética e incluso la regulación de la inteligencia artificial, parece como si nos empeñásemos en exigirles más que lo que exigimos a las propias personas.

En cualquier caso, esa es la base de lo que luego Coeckelberg denomina la 'ética social relacional'.


La posición de John Danaher


La segunda posición que resalta Gunkel en su libro es la de John Danaher, una posición que Danaher denomina 'ethical behaviorism', que traduciré, espero que correctamente, como conductismo ético

Según recoge Gunkel, Danaher afirma que:


What's going 'on the inside' does not matter from an ethical perspective. Performative artifice, by itself, can be sufficient to ground a claim of moral status as long as the artifice results in rough performative equivalency between a robot and another entity to whom we afford moral status.


 O dicho de otra forma, si un ente artificial, un robot, parece y actúa como una persona natural, eso es suficiente para atribuirle estatus moral.


La posición de Erica Neely


La tercera posición que nos muestra Gunkel, y que es algo diferente es la de Erica Neely. Su argumento es, quizá, mucho menos teórico, mucho mas práctico, y nos dice:


In general it is wise to err on the side of caution - if something acts sufficiently like me in a wide range of situations then I should extend moral standing to it


Es decir, que podemos no estar del todo seguros pero, puestos a equivocarnos, es mejor hacerlo del lado de la prudencia, asignando estatus moral a los robots que se parezcan suficientemente a los humanos.


La posición de Aníbal Astobiza


Aunque no aparece en el libro de Gunkel, no quisiera dejar de mencionar la posición de un filósofo español, Aníbal Astobiza, al que tengo el placer de conocer y cuyo último libro 'Tecnofilosofía' ya he reseñado en este blog.

Astobiza mantiene una posición parecida que denomina 'conductismo relacional'. En palabras de Astobiza:


El conductismo relacional establece la idea de que cualquier juicio sobre el estatus moral que hagamos de un animal no humano, ser humano, máquina, etc parte de los estados conductuales. Es decir, depende de inferencias que hagamos a partir de la conducta manifiesta externa de esas entidades.


Muy en la línea de los filósofos que hemos visto anteriormente en este post.


Conclusiones


Aunque no existe una posición única ni consensuada ni mucho menos, respecto a la conveniencia de asignar un estatus moral a los robots, hay como dos líneas de razonamiento, una ontológica, con base a lo que los robots son, y otra fenomenológica, con base en la forma en que se comportan y quizá, quizá, ésta última, aunque quizá menos intuitiva en primera instancia, puede resultar más práctica... y parece que avanza en la línea de asignar estatus moral a los robots suficientemente avanzados. 


No hay comentarios:

Publicar un comentario