lunes, 1 de mayo de 2023

Tres leyes para una robótica responsable

Y con éste, cierro esta especie de mini serie de posts breves en que he comentado algunas propuestas en relación a ética y moral de los robots.

En los dos anteriores hablé primero de una propuesta de 'cuatro categorías de agentes éticos' que serían aplicables a los robots y luego de otra clasificación, en este caso 'tres categorías de moral para unos robots con autonomía'.

Finalizo ahora la miniserie, basada en las aportaciones de Robin R. Murphy en el último capítulo de su libro 'Introduction to AI robotics', con una tercera propuesta, en la que, en este caso, también está directamente implicada la autora del libro: la propuesta de tres leyes para una robótica responsable, en sustitución, de alguna manera, de las archi-famosas tres leyes de la robótica de Isaac Asimov.


Las tres leyes de Asimov


Las tres leyes de la robótica fueron introducidas por Isaac Asimov en su relato 'Circulo vicioso' publicado tan pronto como 1942 (14 años antes que la famosa conferencia de Darmouth). Aunque son bien conocidas, las transcribo:


  • Primera ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

  • Segunda ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

  • Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.


Posteriormente, el propio Asimov introdujo, en el relato 'Robots e imperio' de 1985  una cuarta ley, que denomino 'Ley cero' y que reza así:


  • Ley cero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.


A pesar del indudable acierto y limpieza de estas leyes, a pesar del indudable ingenio y mérito de Asimov al formularlas, confieso que no deja de sorprenderme que estas tres leyes se sigan utilizando todavía hoy día con mucha frecuencia como una especie de referencia o punto de partida en artículos, tratados e incluso libros sobre ética de los robots.

Quizá es que el asunto de la ética de los robots es, aunque interesante, muy 'resbaladizo', una forma de terreno desconocido donde, quizá, lo que nos falta sean, precisamente, referencias, algo a lo que asirnos y por donde empezar.


Las tres leyes de la robótica responsable


El caso es que, a pesar de su, como digo, indudable acierto y mérito, las tres leyes de Asimov se nos quedan cortas, abstractas y alejadas de la realidad si pensamos en la robótica actual (y previsible en los próximos años) y en una eventual roboética.

Por ello han surgido otras formulaciones alternativas. Una de ellas es la que se propone en el artículo 'Beyond Asimov: the three laws of responsible robotics' firmado en 2009 (hace ya, por cierto, 14 años en el momento que escribo esto) por la propia Robin Murphy y David D. Woods. En ese artículo, más que unas leyes de la robótica en general, lo que se proponía eran unas leyes de la robótica responsable. Estas son las tres leyes que se proponían:


  • Primera ley: Un humano no podrá desplegar un robot sin que el sistema satisfaga los estándares legales en materia de seguridad así como la más alta ética profesional.

  • Segunda ley: Un robot deberá responder ante los humanos de forma apropiada a su rol

  • Tercera ley: Un robot debe estar dotado de la suficiente autonomía para proteger su propia existencia siempre que esa protección proporcione una fácil transferencia de control que no entre en conflicto con la segunda y tercera leyes.


Es relevante cómo la primera ley, quizá eso si poco concreta, pone el foco no tanto en el propio robot y su eventual agencia sino en los humanos y en el respeto por parte de éstos tanto de la ley como de principios éticos.

La intención de la segunda ley es quizá menos clara, pero Murphy nos lo explica aclarando que piensa en relaciones no jerárquicas entre humano y robot y que, en ocasiones, incluso, el robot está en mejor posición que el humano para asumir el control. Un segundo aspecto que comenta Murphy y que está mucho más oculto en esta segunda ley, es que no siempre la relación humano-robot se producirá mediante lenguaje natural.

La tercera ley reconoce el hecho de que no siempre los humanos estarán en condiciones de corregir algún problema con que se encuentre el robot en un modelo de control 'in-the-loop'. Por tanto, la tercera ley aboga por que los robots tengan, al menos a nivel táctico, cierta autonomía para proteger su propia seguridad

Contemplando en conjunto estas tres leyes de la robótica responsable, las veo menos completas y abarcadoras que las de Asimov pero, eso sí, mucho más cercanas a la realidad y a una eventual operativización.


Conclusiones


Las tres leyes mencionadas me siguen pareciendo, al igual que las de Asimov, más un punto de partida, una referencia, para un trabajo mucho más extenso y complejo y con muchas más aristas tanto éticas como de viabilidad técnica.


No hay comentarios:

Publicar un comentario