lunes, 30 de octubre de 2023

Cinco etapas de los procesos cognitivos humanos y su aplicabilidad en robótica cognitiva

En una buena parte del trabajo en inteligencia artificial (no en todo), los procesos cognitivos del ser humano actúan como referente, tanto en el sentido de ofrecer un modelo hacia el que mirar en busca de inspiración como en forma un objetivo a alcanzar porque parte de los objetivos (no todos) de la inteligencia artificial es emular las capacidades cognitivas humanas.


Robótica cognitiva


Un campo de investigación donde quizá se acentúa ese interés en los procesos cognitivos es el de la denominada robótica cognitiva donde se intenta dotar a los robots de capacidades cognitivas similares (quizá superiores) a las humanas.

Es relativamente sencillo hoy en día dotarles de capacidades como visión artificial o procesamiento de lenguaje natural, capacidades que los robots heredan casi directamente de la inteligencia artificial y que ya proporcionan resultados muy positivos.

Bastante más complejo, y bastante más interesante como investigación, es el intento de conseguir capacidades cognitivas muy avanzadas y que con frecuencia se ligan a la realidad física que ofrecen los robots: capacidades como el aprendizaje por imitación o la consciencia.


Una propuesta de etapas de los procesos cognitivos humanos


En cualquier caso, especialmente en esas capacidades más avanzadas, se mira una y otra vez al cerebro humano y sus procesos cognitivos en busca de entendimiento e inspiración.

En ese sentido, es un intento razonable intentar estructurar esos procesos cognitivos humanos y eso es lo que me encuentro en el libro 'Computational Approaches to Conscious Artificial Intelligence' del cual actúa como editor Antonio Chella y que es autor también del primero de los capítulos titulado 'The conscious machine'.

En ese capítulo, Chella propone un modelo guía, unas fases de los procesos cognitivos humanos, unas fases que  encuentra también identificadas en el budismo en sus denominados cinco agregados o cinco skandhas en sánscrito.. En concreto, las cinco fases (entre paréntesis su denominación en sánscrito) son las siguientes


  • Forma ('rupa'): impresión material o imagen que incluye no solo el cuerpo en si, sino la imagen que uno se forma de él.

  • Sensaciones ('vedana'): sentimiento, impresiones recibidas de la forma, información recibida a través de los sentidos.

  • Percepciones ('samjna'): ligadas a la memoria, es el registro que se hace de las sensaciones y que se convierten en una suerte de objetos reconocibles, unos objetos donde también se incluyen los propios pensamientos. 

  • Actividad mental ('sankhara'): o formaciones. Es la reacción a lo percibido que incluye la voluntad y la experiencia subjetiva de los objetos percibidos.

  • Consciencia ('vijnana')


Procesos cognitivos en robótica cognitiva


No resulta demasiado difícil hacer un cierto 'mapping' de algunas de estas fases con las capacidades cognitivas de robots. Parece que las 'sensaciones' encajan muy bien con la recepción de información a través de sensores

Hasta cierto punto, aunque creo que no completamente, la denominada percepción en robótica e inteligencia artificial, es decir, el procesamiento de la información en los algoritmos que gobiernan la visión artificial o el procesamiento de la voz y el lenguaje, parece encajar bien en la fase de 'Percepciones'.

La 'Forma', que en las fases del budismo aparece como la primera, creo que en el caso de robótica cognitiva podría, en unos casos, estar preconstruida en el propio robot en forma de datos de forma, tamaño, etc (en cuyo casi sí se trataría de una primera fase) y en casos más experimentales, adquirirla el propio robot durante una suerte de aprendizaje, en cuyo caso parecería un fase posterior a las sensaciones y las percepciones.

Y donde entramos en zona de investigación, a veces incluso de pura especulación en el caso de la robótica cognitiva es en los relativo a las 'Actividad mental' y no digamos nada la 'Consciencia'.


Valoración y conclusiones


Un marco como el anterior, procedente de una larga tradición es interesante como forma de estructurar el conocimiento y el trabajo científico y técnico, y añade el interés de conectarlo con una larga tradición intelectual y en este caso incluso espiritual.

Sin embargo, me parece más un punto de partida, propio de un área de trabajo todavía incipiente, todavía exenta de un conocimiento realmente profundo de su objeto de estudio, que de una disciplina científica y técnica en un estadio avanzado.

En ese sentido, me parece que, aparte de la propia investigación en inteligencia artificial y robótica, se podrán, eventualmente, obtener aportaciones más útiles, más accionables, de unos posibles avances en neurociencia.

No obstante, estamos donde estamos, y cualquier marco que ayude a entender y organizar el conocimiento disponible, es bienvenido.


miércoles, 25 de octubre de 2023

La robótica como concreción y contraste de realidad

En el mundo actual (no sé si también en el pasado), es fácil, en publicaciones, eventos, charlas, etc encontrarse con grandes declaraciones, con teorías y pensamientos grandilocuentes, pero que no es extraño que se encuentren vacíos de contenido.

En ocasiones opiniones y trabajadas y honestas pueden ser, sin embargo, también poco realistas o poco concretas.


Ingeniería y humanidades


Por titulación y por ejercicio profesional soy ingeniero, pero mis intereses intelectuales son muy amplios e incluyen, por ejemplo, la filosofía, la literatura o la psicología.

Creo que, en el fondo, toda disciplina de estudio es valiosa, interesante y enriquecedora.

Pero también es cierto que la forma de pensamiento de un ingeniero, y no sólo un ingeniero sino también, por ejemplo, un matemático o un físico, te llevan a la claridad, a la concreción, a la formulación inequívoca de razonamientos, teorías y resultados. 

Algo que, y que me perdonen los afectados, no siempre está presente en disciplinas así denominadas humanísticas donde, una formulación verbal brillante y erudita puede, sin embargo, ocultar ambigüedades, errores de razonamiento y elementos de interpretación lo que, me hace pensar, puede ser la fuente de las frecuentes y en ocasiones ardorosas discusiones que se producen entre, por ejemplo, filósofos o literatos. A falta de tangibilidad, a falta de un contraste objetivo, queda abonado el debate, probablemente interesante, pero que difícilmente conduce a conclusiones que no sea el propio debate en sí mismo.


Formas de concreción


Hay muchas formas, creo, de hacer que nuestros pensamientos no sean divagaciones, de concretarlos.

Una forma muy sencilla es, simplemente, escribirlos. Es algo que aconsejo siempre porque escribir lo que te ronda por la cabeza, ponerlo en palabras, es ya una primera forma de concretar. Pero se trata sólo de un primer paso, porque las palabras, permiten, y de qué manera, las ambigüedades.

Un siguiente paso puede ser intentar estructurar nuestras ideas en forma de diagrama de bloques (por cierto, mucho mejor un diagrama de bloques que un mapa mental, que creo que tiende también ala ambigüedad) algo, el producir diagramas, que quizá, ya empieza a ser un síntoma de pensamiento ingenieril.

También podemos aplicar las reglas de la lógica, de la lógica formal, me refiero, como lógica poposicional o silogismos, algo que, además de haber nacido en el ámbito de la filosofía, aplica muy bien a temáticas no técnicas y que forma parte del acervo de herramientas del denominado pensamiento crítico.

Para hay formas mucho más radicales, y en este caso técnicas, de concretar.


El desarrollo software como concreción


Durante muchos años hice desarrollo software y todavía hoy en día, de vez en cuando, hago alguna cosa pequeñita, algún demostrador o prueba de concepto con software.

Y el desarrollo software es una formidable palanca de rigor y concreción. Pese a lo que pueda parecer cuando se ve externamente donde el software hace gala de su flexibilidad, cuando se mira internamente es tremendamente exigente en cuando a rigor y concreción. Cualquier lógica que se te ocurra en tu cabeza debe traducirse a los elementos que te proporciona el lenguaje o herramienta de programación (elementos que son finitos y absolutamente inequívocos en cuanto a funcionamiento aunque a veces una mala documentación pueda hacer parecer otra cosa).

La traducción de comportamientos a software es un extraordinario y muy enriquecedor ejercicio de pensamiento, estructuración y rigor y deja el campo de la fantasía sólo para el diseño externo, funcional y gráfico, pero en absoluto para el funcionamiento interno.

A veces se habla del pensamiento computacional, de la necesidad de introducirlo en la educación e, incluso, incluir como formación básica la programación. No estoy seguro de si eso es correcto o no y, desde luego, a nivel de posterior ejercicio profesional muy pocos perfiles necesitarían programar realmente. Pero lo que sí es cierto es que la programación desarrolla, sin duda, el pensamiento estructurado y lógico, y eso sí que podría ser muy útil para cualquier persona, también para las que se orienten a los ámbitos humanísticos o sociales.


La robótica como concreción y realismo


Y otra forma radical de concreción es la robótica que, además, es la que me ha inspirado el post y la que le da título. Y ha sido a partir de la lectura del libro 'Robot souls', donde la autora, Eve Poole, cita al inicio de un capítulo a Hod Lipson, ingeniero mecánico y director del  Creative Machine Lab Columbia University. Y la cita que incluye es la siguiente.


the nice thing about robotics is that it forces you to translate your understanding into an algorithm and into a mechanism. You can't beat around the bush, you can't use empty words, you can't say things like 'canvas of reality' that mean different things to different people, because they are too vague to translate into a machine. Robotics forces you to be concrete.


La robótica es interesantísima en muchos aspectos pero, en efecto, también es una forma muy efectiva de formar al realismo y la concreción. La robótica incluye desarrollo software, que ya de por sí, como decía antes, fuerza a la concreción, al pensamiento estructurado, a la realidad.

Pero la robótica incluye, además, todo lo que tiene que ver con el diseño mecánico y, sobre todo, el contraste con el mundo físico. El software exige el rigor y la concreción pero tiene la ventaja de que si hacemos las cosas correctamente, hace exactamente lo que tiene que hacer.

Sin embargo, el mundo físico aporta otras exigencias adicionales. Dado que, a pesar del enorme desarrollo científico actual, muchas veces sólo tenemos modelos aproximados de comportamiento de ese mundo físico y dado que, además, en el mundo físico abundan los imprevistos, diseñar y poner en funcionamiento una máquina capaz de funcionar en ese entorno es un desafío de exigencia y contraste con la realidad cosa que hace muchos años pude comprobar durante mi proyecto fin de carrera en que tuve que construir un circuito electrónico real intentando emular los resultados de un artículo científico, cosa que, pese a todos mis esfuerzos, análisis y pruebas, fui incapaz de conseguir completamente.

Y la robótica es mundo físico, sensores y actuadores, movimientos y resultados. 

No valen las ambigüedades.

Vale el rigor, el realismo, los resultados y el contraste con la realidad.

Y eso es una cura, no sólo para la ambigüedad, sino también para la soberbia intelectual. Es tremendamente educativo.


Conclusión


Las disciplinas de la ingeniería, y concretamente el desarrollo software y la robótica, son dos fantásticas escuelas de pensamiento riguroso, humildad intelectual y realismo, mucho realismo.

Así que, a lo mejor sí, sólo por eso valdría la pena enseñársela y hacérsela practicar, aunque fuese en entornos sencillos, a toda nuestra juventud.


lunes, 23 de octubre de 2023

Las leyes de la robótica de Frank Pasquale

No es raro encontrarse con leyes de la robótica, en gran parte inspiradas por las que inicialmente propusiera Isaac Asimov, unas leyes que normalmente poco tiene que ver con los aspectos ingenieriles de esta disciplina y sí más bien con elementos filosóficos, éticos o legales relativos a la misma.

Ya he recogido en este blog, en diferente posts, algunas de esas leyes alternativas.


Más leyes de la robótica


En el libro'Robot souls', su autora, Eve Poole, recoge también varias formulaciones. En concreto, en este post me fijo en las que provienen de Frank Pasquale un profesor de leyes en la Brooklyn Law School.


Las leyes de Frank Pasquale


Las leyes propuestas por Pasquale, al menos tal y como las describe Eve pool, serían las siguientes:


  • Los sistemas robóticos y de inteligencia artificial deberían complementar a los profesionales, no reemplazarlos

  • Los sistemas robóticos y de inteligencia artificial no deberían falsificar a humanos

  • Los sistemas robóticos y de inteligencia artificial no deberían intensificar carreras armamentísticas de suma cero.

  • Los sistemas robóticos y de inteligencia artificial deben siempre indicar la identidad de sus creadores, controladores y propietarios.


Se observa que, en realidad, se trata de leyes que aplican no sólo a robots, sino a la inteligencia artificial en su conjunto.


Algún comentario


He traído aquí estas leyes por dos motivos: uno porque me interesa ir recogiendo todas esas formulaciones de leyes de la robótica para tener perspectiva y, dos, porque veo que contienen algún elemento interesante.

Sin embargo, no puedo evitar hacer algún comentario, en ocasiones crítico.

Por un lado, me parecen unas leyes que, con independencia del interés de cada una, son un poco dispersas, eligiendo temáticas concretas sin una intención, o al menos sin lograrlo en mi opinión, de dar una visión completa.

Respecto de la primera ley, realmente no estoy de acuerdo. Por supuesto que a todos nos importa el empleo y la realización a través del trabajo, y nos preocupa la sustitución de profesionales, sobre todo si esta es masiva, pero la naturaleza propia de la automatización es sustituir trabajo humano, y con ello se consigue eficiencia y productividad. Y la eficiencia y la productividad son buenas, muy buenas, y no solo para la compañía u organización que la consigue, sino para la sociedad en su conjunto. Y, si, a veces eso se hace a costa de sustituir a profesionales, pero lo lógico es que éstos profesionales se adapten a nuevos perfiles o, en los caso más extremos, que existan medidas transitorias de protección o que reciban ayudas sociales, pero no que detengamos la eficiencia de forma generalizada. 

La segunda, que cualquier ente artificial se debe identificar como tal y no hacerse pasar por un humano, sí que está bastante admitida e incluso se recoge ya en textos legales como la propuesta de regulación europea. En cualquier caso, aunque importante y estando de acuerdo, me parece un tema muy puntual.

La tercera me sorprende un poco. No es que no la comparta. probablemente casi cualquier ser humano la comparte, pero me parece por un lado un poco evidente, por otro lado muy puntual como ley de la robótica y, por otro, sin embargo, muy inespecífico, porque eso mismo podríamos decir de cualquier tecnología o incluso cualquier iniciativa humana.

La cuarta hunde sus raíces en consideraciones jurídicas y el debate sobre responsabilidad y rendición de cuentas. Aunque la propuesta de Pasquale no resuelve por sí sola ese debate, sí pone las bases, al menos sabiendo 'quien hay detrás' de un sistema o algoritmo.


Conclusiones


En esa búsqueda por definir un marco, fundamentalmente ético y someramente legal, de actuación de la robótica, las leyes de Pasquale son una nueva propuesta, creo que criticable en algunos aspectos, pero con aportaciones interesantes.


Artículos de este blog relacionados

viernes, 20 de octubre de 2023

Alineamiento y control de la inteligencia artificial

Cuando se habla de los riesgos que puede conllevar la inteligencia artificial más avanzada, aquellos algoritmos o robots dotados de mayor inteligencia y autonomía, en especial, cuando nos preocupamos sobre la eventual llegada de una inteligencia artificial general (AGI, 'Artificial General Intelligence') y la traída y llevada singularidad, se suele aludir, buscar o reclamar dos mecanismos de 'seguridad': el control y el alineamiento.
En este sencillo post, simplemente, voy a recordar de qué estamos hablando, por si el lector desconociera ambas ideas. 

Y lo hago inspirado por la breve mención que al respecto hace Eve Poole en su reciente libro 'Robot souls', aunque, por ejemplo, el problema del control es algo que ya ha salido en este mismo blog cuando hablábamos, por ejemplo, de las aportaciones de Stuart Russell en su libro, significativamente titulado 'Human compatible: AI and the problem of control' o de Sven Nyholm, en su libro 'This is technology ethics'


Control de la inteligencia artificial.


Cuando hablamos de control nos referimos a introducir mecanismos que permitan a los humanos siempre supervisar, orientar, corregir y eventualmente apagar un algoritmo, sistema o robot inteligente, de forma que éstos sistemas inteligentes no puedan actuar "a su libre albedrío" (nótense las comillas), eliminando o minimizando así problemáticas de seguridad y, sobre todo, y en el caso de que se crea en él, el denominado riesgo existencial o la "rebelión" o deriva de la máquina.

La posibilidad del control creo que es bastante realista (y necesaria) en el nivel de soluciones tecnológicas actuales, aunque pueden existir dudas sobre si seríamos realmente capaces de controlar siempre a una eventual inteligencia artificial general y más inteligente que los propios humanos.


Alineamiento de la inteligencia artificial.


La idea de alineamiento es diferente. Más que de controlar a la máquina (algoritmo, sistema o robot), la idea es que los objetivos que persigan esas máquinas coincidan con los de los humanos y de esta forma no nos puedan hacer daño o llevarnos a situaciones indeseadas.

La idea es sugerente pero al menos ahora mismo me parece menos realista que el control, al menos como solución general. ¿Por qué? Pues porque los propios humanos no nos ponemos de acuerdo entre nosotros sobre lo que queremos, sobre lo que es bueno y malo, sobre lo que es correcto y lo que no.

El alineamiento es realista, creo, para tareas más o menos mecánicas, de ámbito limitado y con objetivos claros (en cierto modo, es lo que ya hacemos ya constantemente cuando entrenamos a los algoritmos, especialmente en aprendizaje supervisado) pero me parece menos clara su factibilidad si queremos que aborde problemáticas generales y sobre todo de orden moral.

De todas formas ahí está como posible planteamiento y área de trabajo.


Conclusión


El control  el alineamiento son dos mecanismos propuestos, en muchos casos me parece que más a nivel de debate intelectual que práctico, sobre todo en el caso del alineamiento, como una forma de asegurar la supervivencia y bienestar de los humanos ante el posible caso de unos sistemas inteligentes, muy inteligentes, de una inteligencia general, y con capacidades eventualmente superiores a las de los humanos.


lunes, 9 de octubre de 2023

El peor sesgo que afecta a la inteligencia artificial

Una de las problemáticas de naturaleza ética que se asocian a la inteligencia artificial es la de los sesgos, el famoso sesgo algorítmico, aunque en ese término habría cosas que discutir.

Vamos a revisar un poco de qué va esto de los sesgos y luego te voy a transmitir una reflexión reciente que he tenido donde identifico como sesgo uno muy concreto...que no es el que te imaginas, ni el que aparece habitualmente en la literatura.

 

¿Qué es un sesgo?


Este concepto de sesgo  no es, ni mucho menos, exclusivo de la inteligencia artificial ni de los algoritmos informáticos. Afecta a algoritmos matemáticos y a máquinas o sensores, por ejemplo.

Un sesgo es una desviación coherente y sistemática respecto al valor que consideramos correcto en cada caso. Sistemática nos dice que se produce con frecuencia, en realidad siempre o prácticamente siempre. Y que es coherente implica que el error se produce de la misma forma, en el mismo sentido, que no es aleatorio.

Un sesgo es un error, siempre es un error, y siempre es negativo. Punto.


Los sesgos de la inteligencia artificial


Cuando hablamos de sesgo algorítmico o de sesgo de la inteligencia artificial nos referimos, por tanto, a que un algoritmo produce un resultado que de forma sistemática y coherente se desvía del valor correcto. 

Así definido, que por cierto es la forma correcta de definirlo, un sesgo es un error y como tal indeseable. 

Un error que, por cierto, no conviene achacar gratuitamente a la 'maldad' de los desarrolladores y que puede deberse a muchos motivos, como muy bien explican Mónica Villas y Javier Camacho en su libro 'Manual de ética aplicada en inteligencia artificial'. Me quedo con dos de las causas que creo más comunes: que el sesgo se encuentra ya en los datos de entrenamiento o que se debe a un problema de muestreo a la hora de seleccionar los datos de entrenamiento que hace que ciertos colectivos o grupos estén infrarrepresentados o no adecuadamente representados. Visto así, el problema está de una forma u otra en los datos y no en la programación del algoritmo. 

En cualquier caso, por si sólo, un sesgo no tiene implicaciones éticas. Se trata sólo de un error, negativo por tanto, pero sin calificación moral.


Sesgos, equidad y discriminación


En realidad el problema ético no es el sesgo algorítmico por sí mismo, sino cuando este sesgo conduce a problemas de equidad y a discriminación en el tratamiento de personas o de colectivos. 

Si un algoritmo, por ejemplo, usado en selección, infravalora sistemáticamente a mujeres o personas de raza negra, tenemos un problema de equidad, una discriminación y, por lo tanto un problema ético.

Si un algoritmo de cálculo de trayectorias de un robot tiene un sesgo, podemos tener un problema operativo, incluso de seguridad, pero no es un problema de equidad ni esencialmente un problema ético.

Ambos sesgos son malos, pero sólo el primero tiene efectos morales.


Sesgos cognitivos


También las personas tenemos sesgos, unos sesgos estudiados desde el campo de la psicología y que se conocen como sesgos cognitivos.

Así, tenemos el sesgo de confirmación que nos hace atender de forma preferente, seleccionar, aquellas informaciones que confirman nuestras propias opiniones, hipótesis y valores. O el sesgo de consenso que nos hace percibir que nuestras propias opiniones son muchos más aceptadas y generalizadas en nuestro entorno de lo que realmente son.


El peor sesgo: el miedo


Y mi reflexión, lo que he pensado recientemente, lo que ha motivado este post es que el peor sesgo que sufre la inteligencia artificial no tiene que ver ni con las matemáticas, ni con la programación, ni siquiera con los datos.

El peor sesgo que sufre la inteligencia artificial es de naturaleza cognitiva y se trata, probablemente, de una variante del sesgo de confirmación: el sesgo del miedo.

Tanto, y de forma a veces irresponsable se nos ha insistido en los riesgos de la inteligencia artificial; tanto y a veces de forma irresponsable se han exagerado los riesgos; tanto y con frecuencia de manera irresponsable se destacan los problemas y los errores; tanto y de forma con frecuencia irresponsable se nos ha querido asustar con eventuales riesgos sistémicos, que el común de los mortales, aquellos que no conocen la tecnología y que no tienen más remedio que juzgar 'de oídas' le tiene miedo a la inteligencia artificial.

Un miedo que, en el fondo, es una reacción bastante natural ante lo novedoso y desconocido, un miedo que ha afectado ya afectará a todas las tecnologías transformadoras que en el mundo han sido. Aconsejo en ese sentido leer los primeros capítulos del libro 'Estupidez artificial' de Juan Ignacio Rouyet.

Pero un miedo que ha sido acrecentado de manera con frecuencia irresponsable por medios de comunicación e, incluso, lo más triste de todo, por algunos expertos en inteligencia artificial.

Y claro, si le tienes miedo a la inteligencia artificial y oyes o lees una charla o artículo que te habla de los beneficios pero también de los riegos ¿Qué sucede? Que actúa el sesgo de confirmación y te quedas con lo negativo, con el miedo. Te olvidas con los beneficios y te quedas con los riesgos. Incluso tiendes a pensar que los riegos no son riesgos sino problemas manifiestos. Sin razonar, sin atender y sin entender

Y si un periodista o community manager obtiene declaraciones de una persona que habla de inteligencia artificial, da igual que esa persona le hable de su maravillosas posibilidades, de sus potencialidades, de sus beneficios, como deslice algo sobre riesgos, eso es lo que irá al titular. El riesgo y no el beneficio. En este caso no sé si es un sesgo de confirmación o una cuestionable política de titulares llamativos.

No estoy hablando de hipótesis: lo he visto con mucha frecuencia y lo he sufrido en primera persona de vez en cuando.

Y ese miedo es el peor sesgo. Es el peor porque es paralizante, porque tiende a ahogar el desarrollo y la innovación y por tanto el progreso social y económico. Y, además, sin lograr ningún objetivo de mejora en cuanto a ética y responsabilidad. Si niegas la inteligencia artificial, lo único que vas a conseguir es que esté en manos de 'los chico malos', pero no vas a conseguir pararla. Te pierdes sus beneficios sin eliminar sus riesgos. 

Un pan con unas tortas, que se diría.


Conclusiones


Para que se entienda claramente, al menos desde mi posición personal: la inteligencia artificial es esencialmente buena, es motor de progreso y riqueza y deberías utilizarla ya, deberías utilizarla de forma responsable, ya.

Y no añadiré nada más para dar menos espacio a los sesgos cognitivos, a los titulares y al miedo.


lunes, 2 de octubre de 2023

Los ocho grandes temas a regular sobre la Inteligencia Artificial

Existe, lo sabemos bien, una amplia 'conversación' sobre las implicaciones éticas de la inteligencia artificial, sobre sus riesgos y la forma de afrontarlos.


Inteligencia artificial, ética  y regulación


Y cuando deseamos 'bajar a tierra' las consideraciones éticas sobre una temática concreta, en este caso la inteligencia artificial, uno de los mecanismos, quizá el más concreto, puede que el más eficaz, es la regulación, la promulgación de leyes que concreten derechos y obligaciones, así como eventuales castigos en caso de incumplimiento, de manera que se concreten, clarifiquen y garanticen los valores aparejados a las consideraciones éticas.

Y, en efecto, en paralelo con todo el debate y todo el ruido mediático alrededor de la ética de la inteligencia artificial, y concentrándose sobre todo, aunque no únicamente, en Europa, se encuentra en marcha el desarrollo normativo que ha de regir en el desarrollo y uso de la inteligencia artificial, siendo de especial relevancia la denominada AI Act europea, actualmente en tramitación.  

Sin embargo, el campo de la inteligencia artificial es muy amplio, se encuentra en continua evolución y sus implicaciones se ramifican abarcando una variedad de problemáticas éticas, no todas ellas con diagnóstico claro o con valores compartidos.

Así que nos podríamos preguntar ¿Qué es lo que debemos regular realmente en Inteligencia artificial?


Los ocho grandes temas 


No voy a hacer una propuesta propia, sino recoger la que me encuentro leyendo el libro 'Robot souls' de Eve Poole. Al abordar este tema, la autora hace referencia, a su vez, al trabajo dirigido por Jessica Fjeld en el Berkman Klein Center for Internet & Society

En este trabajo, el equipo analizó las 36 principales declaraciones de principios en todo el mundo, encontrando un total de 47 principios y detectando un consenso alrededor de ocho grandes temas (que denominan meta-temas). 

De forma resumida, a continuación listo esos ocho grandes temas o meta-temas (incluyo entre paréntesis el término en inglés cuando la traducción es conflictiva o no evidente). Además, los temas están ordenados de mayor (100% en el caso de la imparcialidad) a menor (69% en el caso del control humano de la tecnología y la promoción de los valores humanos) prevalencia.


  • Imparcialidad ('fairness') y no discriminación: Los sistemas de Inteligencia Artificial deben diseñarse de forma que maximicen la imparcialidad y eviten la discriminación. Un tema íntimamente relacionado con los famosos sesgos algorítmicos.

  • Privacidad: Temas relacionados con el acceso y consentimiento de dicho acceso en el caso de datos personales usados tanto durante el entrenamiento como durante la explotación de los sistemas de inteligencia artificial.

  • Rendición de cuentas ('accountability'): Claridad acerca de de quién es el sistema, quién es el responsable y quién puede ser multado o castigado. 

  • Transparencia y explicabilidad:  Apuntan en el sentido de que los sistemas de inteligencia artificial deben por ser supervisados incluyendo la traducción de su operación a términos inteligibles así como disponibilidad de información acerca de dónde, cuándo y cómo son empleados.

  • Seguridad ('safety' & 'security'): Los sistemas de inteligencia artificial deben ser seguros y funcionar según lo esperado. Además deben ser resistentes a ataques de hackers.

  • Responsabilidad profesional: La comunidad de la inteligencia artificial debe adherirse a estándares profesionales de integridad y los diferentes 'stakeholders' deben ser consultados acerca del impacto de los sistemas de inteligencia artificial.

  • Control humano de la tecnología: Las decisiones clave deben permanecer como objeto de supervisión humana, especialmente aquellas que conciernan a la vida o la muerte.

  • Promoción de los valores humanos: Los sistemas de inteligencia artificial deben estar al servicio del bienestar de la humanidad de acuerdo con  nuestros valores nucleares.

En general, los temas identificados nos resultan muy reconocibles y, especialmente en el caso de los tres primeros, hay claramente trabajo regulatorio en marcha. Cierto es, al menos en mi percepción, que a medida que recorremos hacia abajo la lista, nos encontramos temáticas de más difícil formalización (caso de la explicabilidad) o que empiezan a  entrar más en el ámbito de valores un poco abstractos que de temas traducibles a leyes y criterios claros.


Conclusión


La preocupación sobre las implicaciones éticas de la inteligencia artificial sin duda existe, y el trabajo normativo y regulatorio también está en marcha, muy notablemente en Europa.

Sin embargo el campo es tan amplio y las aportaciones tan diversas, que es bueno intentar concentrar en alguna forma de censo o mapa todo aquello de lo que nos queremos ocupar.