Algunos problemas de la ética de los robots y los algoritmos
¿A qué me refiero?
Pues me refiero a temas tan interesantes, pero probablemente tan lejanos, como la posibilidad o no, de que se llegue a conseguir una super-inteligencia o que se alcance la famosa singularidad, y qué podríamos hacer los humanos al respecto, bien para que ese fenómeno no ocurra o, bien para que si al final se alcanza, podamos mantener alguna forma de control.
Nos preocupamos sobre temas tan interesantes como si los robots y las máquinas pueden llegar o no a tener consciencia o libre albedrío y si, siendo así pueden ser considerados agentes morales y también sujetos de derechos.
El lector habitual de este blog reconocerá, de hecho, que son temas que abordo con frecuencia desde hace unos meses porque, realmente, me parecen muy interesantes, diría que apasionantes.
Sobre los problemas realmente importantes
Sin embargo, si nos ocupamos de esos temas puede que estemos mirando demasiado lejos. Puede que nos estemos concentrando en posibilidades que, además de inciertas, sean muy probablemente lejanas o muy lejanas.
¿No deberíamos ser más realistas? ¿No deberíamos concentrarnos en los problemas de hoy, del aquí y el ahora?
Dentro del libro 'Robotics, AI and Humanity' que me encuentro leyendo estos días, hay un capítulo, firmado por Joachim von Braun y Heike Baumüller del ZEF (Center for Development Research) de la Universidad de Bönn. en que habla de la inteligencia artificial y los robots en relación con la pobreza y, al principio del mismo, nos hacen esta advertencia:
it actually seems that attention to robots' rights is overrated whereas attention to implications of robotics and AI for the poorer segments of societies are underrated.
Quizá sea comprensible la posición de los autores. Para ellos, empeñados en estudiar el desarrollo de los países o problemas como la pobreza, puede resultar casi tristemente cómico ver cómo otros dedicamos nuestro tiempo, y en teoría con intención ética y social, a cuestiones tan alejadas de problemas, algunos tan duros como la pobreza, que afectan ya a millones de personas.
Creo que la llamada de atención es pertinente. Muy pertinente.
Debemos esforzarnos en dar respuestas ya, hoy mismo, a problemas que afectan a las personas. Debemos afrontar temas como la pobreza, el envejecimiento, el deterioro medioambiental, la enfermedad, la marginación...
Es una obligación moral y práctica.
Sin duda.
Motivos para la especulación
Y sin embargo...
Y sin embargo, no creo que debamos abandonar tampoco los análisis algo más futuristas y especulativos. Creo que no debemos abandonarlos por varias razones.
En primer lugar, porque tenemos que anticiparnos. Porque, aunque no sabemos si es posible o no la superinteligencia, aunque no sabemos si es posible o no la consciencia de los robots, caso de que llegase una u otra, el impacto sería gigantesco y debemos estar preparados. Sería desastroso, por tardío, intentar reaccionar cuando ya fuesen una realidad. Y tenemos que anticiparnos porque, si concluyésemos como humanidad que no deseamos esas posibilidades, probablemente habría que empezar a tomar medidas desde ya.
En segundo lugar porque, aunque parece lejano, algunas consecuencias tiene ya. Puede parecer vano, puro divertimento metafísico (en realidad ético), el debatir hoy día sobre la agencia moral o no de los algoritmos y los robots. Y sin embargo, la agencia es un concepto importante para intentar definir con cierta lógica, no sólo filosófica sino incluso jurídica, las responsabilidades (en el sentido de 'liability', rendición de cuentas) por las actuaciones de máquinas inteligentes. Y esa definición de responsabilidad, entendido en un sentido legal y normativo se está tratando ya en ámbitos como el de la Unión Europea y dará lugar en un plazo que creo no superará los dos años, a directrices que se traspondrán en leyes de los países comunitarios.
Y en tercer lugar, porque esos análisis, en cierto modo futuristas, son una forma de innovación. En los cursos que imparto sobre innovación, les hablo a mis alumnos del concepto de organización ambidiestra (una organización que gestiona de manera diferente los negocios maduros que constituyen su 'core business' y los negocios emergentes) o, últimamente, la empresa invencible con su porfolio de explotación y exploración que viene a ser otra forma de decir más o menos lo mismo: diferenciar la gestión de los negocios actuales, de corto plazo, de los de futuro.
Conclusión: explotar y explorar también en ética de los robots
Probablemente, debemos hacer de nuestra sociedad, una sociedad ambidiestra, invencible. La idea sería ser también ambidiestros en los temas éticos y sociales.
Debemos explotar. Debemos concentrar esfuerzos en solicitar y obligar a un uso responsable de la inteligencia artificial y la robótica. Debemos concentrar esfuerzos ya en aplicaciones de la robótica y la inteligencia artificial para resolver los grandes problemas del mundo (la pobreza, el cambio climático, los desequilibros, las enfermedades...) o para conseguir algoritmos más eficientes y con menos huella de carbono. Debemos seguir esforzándonos en conseguir algoritmos más potentes o en alcanzar, si fuese posible, la deseada explicabilidad de los mismos.
Pero también debemos explorar. Debemos poner las luces largas para analizar qué podemos conseguir con estas u otras tecnologías, para decidir si lo queremos realmente o no y, en caso afirmativo, cómo conseguirlo. Un como conseguirlo que tiene una vertiente claramente tecnológica pero que también es un cómo conseguirlo desde el punto de vista de aplicación, de valores, de regulación. Y en ese sentido, no me parece baladí, pensar a años vista, especular e imaginar.
Es la forma de crear el futuro y, además, el futuro que realmente deseamos.
No hay comentarios:
Publicar un comentario