lunes, 14 de agosto de 2023

Propuesta de determinantes éticos para robótica asistencial

En un artículo reciente, hablábamos de la robótica asistencial desde una perspectiva ética. 

En este artículo vamos a completar un poco más lo allí expuesto.


La singularidad roboética


Indicaba en ese post anterior el carácter diferencial de la roboética respecto la ética de la inteligencia artificial. 

Además, y, apoyado en  el libro 'Tecnología para la salud' y en concreto, en el  capítulo 'Robótica asistencial. Una reflexión ética y filosófica' firmado por Txetxu Ausín, Belén Liedo Fernández y Daniel López Castro identificaba unos riesgos éticos que afectan a la robótica asistencial.

En este post, continuación del anterior, hablamos de determinantes éticos, y todo ello a partir de la propuesta realizada en la misma fuente.


Los determinantes éticos de la robótica asistencial


Los autores citados nos hablan de unos determinantes éticos. No dan una definición de lo que entienden por determinante ético, pero los entiendo como las acciones a realizar o las directrices en que concentrarse para conseguir ese carácter ético de la robótica asistencial.

Y los autores nos hablan de seis determinantes éticos, a saber:


  • Minimizar daños (seguridad y protección): En parte alineado con el principio de no maleficencia habitual en discursos éticos, nos habla de no provocar daños intencionados, por supuesto, pero también de una gestión de riesgos, puntos ciegos o negligencia que evite daños no intencionados. Incluye dentro de este apartado el evitar sesgos que provoquen discriminación.

  • Maximizar los beneficios (competencia): Este segundo parece encajar con el principio de beneficencia (en cierto modo complementario de la no maleficencia). Los autores, sin embargo, lo refieren sobre todo a comprobar que los beneficios de la tecnología superen sus riesgos y a la necesidad de usar la robótica asistencial cuando esté justificado.

  • Respetar la autonomía y el control: es decir, respetar el derecho a decidir de la persona y que los artefactos, en este caso los robots asistenciales, sean controlados por las personas.  

  • Respetar la privacidad y autonomía personales: Habla de la protección de datos y sobre todo de evitar el uso cohercitivo para la manipulación de personas. En este apartado, los autores parecen pensar, por su discurso, más que en la robótica social asistencial, en la neurotecnología.

  • Proteger el medio ambiente: Se aboga por la eficiencia energética, la sostenibilidad,  y el uso de energías limpias y renovables. Un determinante que me resulta sorprendente, no por no compartirlo, sino porque no me parece que la robótica asistencial tenga un impacto medioambiental especial.  

  • Promover la equidad y la justicia: Tener en cuenta la diversidad de agentes involucrados en robótica asistencial y buscar la igualdad y accesibilidad.


Probablemente al lector, si está algo versado en ética de la tecnología y de la inteligencia artificial no le sorprendan mucho las propuestas.

Personalmente, quizá en esta propuesta de determinantes éticos, básicamente bien orientada, eche un poco en falta propuestas o matizaciones algo más específicas y relacionadas con los aspectos que personalmente considero más diferenciales de la robótica social y la robótica asistencial, consideraciones que, como ya mencionaba en otros posts, tienen mucho que ver con lo emocional, con lo relacional, e incluso el 'engaño' no en el sentido de un falseamiento activo, sino la creación no forzada de falsas expectativas.


Conclusión


La robótica en general, y la robótica social y asistencial, ofrecen un perfil de riesgos y posibles acciones éticas diferenciado de otras tecnologías y en especial de la inteligencia artificial.

Aunque sometido a revisión, la disponibilidad de censos de riegos y, en este caso, determinantes éticos, como los que hemos visto en este post y el anterior, nos ayudan a centrar un poco más la problemática y, por tanto, pensar en propuestas.



No hay comentarios:

Publicar un comentario