lunes, 7 de septiembre de 2020

Cinco principios de la robótica más allá de las leyes de Asimov


Ahora que surge con fuerza la búsqueda de principios éticos que rijan la tecnología en general, y la inteligencia artificial y la robótica en particular, puede resultar interesante repasar los antecedentes que existen, lo que se ha hecho sobre la materia.

Son 'archi-famosas' las tres leyes de la robótica que definió Isaac Asimov y que utilizó con frecuencia en sus relatos. Son leyes que demuestran un gran sentido común y una orientación filosófica muy acertada. Pero, en el fondo son literatura, aplicables en un mundo de ficción, pero no implementables como tales hoy en día ni a nivel legal ni mucho menos tecnológico. Aunque son muy conocidas, las recuerdo:


  • Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley


En esa línea van el discurso sostenido por el Engineering and Physical Sciences Research Council (EPSRC) en la introducción de su documento 'Principles of Robotics' conclusión de unos talleres llevados a cabo en 2010 conjuntamente con el Art and Humanities Research Council (AHRC), un documento del que he tenido conocimiento leyendo el libro 'Human-Robot Interacion. An Introduction', de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic.

El documento incluye cinco leyes de la robótica on un doble enunciado, uno legal y otro para el público general. A continuación incluyo los enunciados generalistas de esos cinco principios (traducción propia):


  • Los robots no deberían ser designados como armas, excepto por razones de seguridad nacional.

  • Los robots deberían ser diseñados y operador de forma que cumplan con la ley existente, incluyendo la privacidad.

  • Los robots son productos y como tales productos, deberían ser diseñados para ser seguros y confiables.

  • Los robots son productos manufacturados. No deberían usar la simular de emoción o intención para explotar a individuos vulnerables.

  • Debería ser posible averiguar quién es el responsable de cada robot.


No dejan de ser principios muy generalistas, aunque quizá más cercanos a la realidad y preocupaciones actuales. 

Me llama la atención la salvedad que se incluye en el primer principio, admitiendo como válido el uso de robots-arma por motivos de seguridad nacional. Dado lo elusivo y manipulado que es ese concepto de 'seguridad nacional' puede ser una forma de abrir la puerta al uso de robots arma de forma generalizada. Y también aunque comprensible, y perfectamente aceptable en su enunciado literal y su intención, me llama la atención el cuarto principio, que impone restricciones de importancia a los robots sociales e, incluso, a los simples chatbots o altavoces inteligentes.

De todas formas no deja de tratarse meros principios. En el fondo, creo que cualquier principio sólo será realmente ejecutivo en el momento en que se convierta en ley.


2 comentarios: