lunes, 21 de marzo de 2022

Quince recomendaciones sobre regulación de la Inteligencia Artificial y los robots

Muchas son las recomendaciones que están viendo la luz respecto de la aplicación con criterios éticos de la Inteligencia Artificial y la robótica.

Algunas iniciativas, como las que están teniendo lugar en el seno de la Unión Europea, tienen, además, el objetivo claro de acabar convirtiéndose en normativa, en directrices y leyes.

Otras, sin embargo, son más bien orientaciones de alto nivel, códigos deontológicos o recomendaciones.

Una dificultad para la regulación de la inteligencia artificial y la robótica es el paso acelerado de estas tecnologías y, en ocasiones, la escasa comprensión que sobre ellas existe.

Recomendaciones para un nuevo modelo de regulación de la Inteligencia Artificial y la Robótica


Un poco por lo anterior, se puede entender que el modelo tradicional de regulación por parte de gobiernos y administraciones, pudiera no ser realista y pudiese necesitarse un nuevo modelo.

En el post de hoy recojo, y comento brevemente, unas lista de quince recomendaciones que me encuentro en el libro coral 'Robotics, AI and Humanity'  y que, en este caso, aparecen en un capítulo firmado por Angela Kane del Vienna Center for Disarmament and Non-Proliferation, una persona con experiencia en los ámbitos políticos y diplomáticos europeos y que se ha enfocado en buena medida en los aspectos relacionados con evitación de conflictos y desarme, incluyendo en ese punto a las armas letales autónomas.

Esta diplomática, entiende que los mecanismos tradicionales de regulación pueden no ser adecuados y, de cara a un modelo más realista, propone quince recomendaciones, una recomendaciones que recojo, traducidas y transcritas sin apenas elaboración, a continuación:

  • Expande el conocimiento en Inteligencia Artificial de manera que no quede confinado en un número pequeño de países o un segmento acotado de la población

  • Acepta que las decisiones acertadas sobre tecnología de Inteligencia Artificial no se pueden adoptar sin una fuerte aportación de los propios tecnólogos.

  • Encuentra, por tanto, un lenguaje común para funcionarios, legisladores y expertos técnicos.

  • Inicia un diálogo que incluya: (a) políticas informadas por las posibilidades técnicas (b) aprecio por parte de los expertos tecnológicos de los requisitos para directrices de responsabilidad.

  • Debate cómo construir una licencia social para la Inteligencia Artificial, incluyendo la estructura de incentivos que animen a la industria y la administración a alinear el desarrollo y despliegue de la Inteligencia Artificial con el interés público.

  • Enfócate en el resultado y no tanto en el proceso: principios, protección de la privacidad, convergencia de políticas digitales y diferencias entre sistemas regulatorios de Estados Unidos, Europa y China.

  • Marca algunas 'líneas rojas', es decir, áreas prohibidas a la Inteligencia Artificial, como las armas letales autónomas o la evaluación de ciudadanos por la administración ('social scoring').

  • Usa la estrategia de la 'ley blanda' ('soft law') para superar las limitaciones de las regulaciones gubernamentales tradicionales sobre Inteligencia Artificial y Robótica.

  • Debate los retos, costes, fiabilidad y limitaciones del estado del arte actual

  • Desarrolla profundas relaciones de trabajo, especialmente en el sector defensa, entre los desarrolladores públicos y privados de Inteligencia Artificial.

  • Asegura que tanto desarrolladores como legisladores prestan especial atención a la cuestión de la interfaz persona-máquina.

  • Comprende cómo los diferentes dominios dan lugar a diferentes retos.

  • Compila la lista de guías que ya existen y observa dónde existen 'gaps' que hay que rellenar para ofrecer más guía sobre trasparencias, responsabilidad y justicia en las herramientas de Inteligencia Artificial.

  • Aprende de comunidades adyacentes (como ciberseguridad, biotecnología o aviación) acerca de esfuerzos para mejorar la seguridad y robustez

  • Los gobiernos, fundaciones y corporaciones deberían asignar recursos para desarrollar y desplegar sistemas de Inteligencia Artificial con objetivos humanitarios.

Algunos comentarios


La verdad es que las recomendaciones de Angela Kane me parecen muy sensatas y creo que revelan experiencia real en estos entornos políticos y regulatorios.

Me llama la atención, agradablemente, el respeto que muestra por los tecnólogos y cómo señala la importancia imprescindible de su participación, algo que en mi opinión debería ser evidente, pero que creo que no siempre se percibe así.

Destacaría también, algo que parece en varias de las recomendaciones y es lo que tiene que ver con la colaboración y el diálogo entre actores. En un tema tan multidisciplinar, creo que ese diálogo, franco, abierto y con mutua comprensión, es muy relevante. De forma que veo relacionada, me parece muy interesante el señalar la necesidad de aprender y colaborar con ámbitos adyacentes como la ciberseguridad o la biotecnología.

A un nivel algo más de interés personal, me agrada el que señale la importancia específica de trabajar en las interfaces persona-máquina, algo que conecta muy bien con mi labor en OdiseIA en el área de Relación robots-Personas.


Conclusiones


Quizá, en el momento actual en que la Unión europea ya dispone de un borrador de reglamento sobre el uso de los sistemas de inteligencia artificial, podemos pensar que el modelo regulatorio tradicional sí está consiguiendo avanzar en el campo de la inteligencia artificial y la robótica.

Es posible.

Aún así, las recomendaciones de Kane me parecen, como digo, sensatas, realistas, y que vale la pena atenerlas como orientación en ese proceso de análisis ético y elaboración regulatoria.

No hay comentarios:

Publicar un comentario