miércoles, 3 de septiembre de 2025

Revisitando el problema de la explicabilidad en LLMs y modelos razonadores

Uno de los grandes desafíos éticos cuando hablamos de inteligencia artificial es el de la explicabilidad, un problema que, por desgracia, se ha demostrado técnicamente muy difícil de resolver... al menos hasta el momento.

En una reflexión que tuve hace unos días, llegué a la conclusión de que el problema de la explicabilidad de los algoritmos de IA, presenta unas características muy particulares en el caso de los grandes modelos de lenguaje (LLM, 'Large Language Models') o, en general, en los modelos fundacionales.

Aunque hay algunos aspectos en los que todavía tengo pendiente profundizar, sí quisiera comentar en este post algunas de las particularidades que percibo, algunas reflexiones o incluso preguntas abiertas que me gustaría formular... y una esperanza.

En realidad, se trata de un tema que ya traté hace un tiempo en el post 'La explicabilidad en los grandes modelos de lenguaje' y, de hecho, bastantes de las consideraciones que voy a hacer se pueden encontrar ya en ese artículo, pero de todas formas, quisiera reformular un poco y ampliar lo que allí expresé y proporcionar alguna nueva y esperanzadora perspectiva.


El problema de la explicabilidad


Antes de seguir, y aunque asumo que la mayor parte de los lectores de este post tienen alguna noción sobre el problema de la explicabilidad, realizaré un muy breve repaso.

Como es bien sabido, los algoritmos de inteligencia artificial realizan cada vez mayor número de tareas. Dentro de estas tareas se incluyen muchas que suponen la toma de decisiones. Lo que la explicabilidad de la inteligencia artificial reclama es que el algoritmo pueda explicar en qué basa sus decisiones. Añado de mi cosecha, que esa explicación debe realizarse en términos comprensibles por los humanos.

En el vasto panorama de algoritmos de inteligencia artificial, algunos son claramente explicables, como es el caso de los árboles de decisión, pero otros son claramente e intrínsecamente no explicables, como es el caso de las redes neuronales.

El problema se agrava porque los algoritmos más comunes, más sofisticados, más importantes de hoy en día, son variantes arquitectónicas de redes neuronales. Es decir, los algoritmos que dominan la inteligencia artificial actual, son en principio no explicables.

Además, conviene resaltar que no es que no sean explicables por alguna decisión arbitraria y 'malvada' de un directivo, ingeniero o desarrollador... es que intrínsecamente son así, no explicables. 


Dos opiniones propias: el determinismo y el sentido común


En otras ocasiones  he defendido dos ideas que quisiera traer a colación ahora.

Por un lado el determinismo. Esta idea la defendía en el post que, provocativa e intencionadamente, titulé 'Los algoritmos de Inteligencia Artificial sí saben explicarse'.  Lo que ahí defiendo es que los algoritmos de inteligencia artificial (incluyendo las redes neuronales), son deterministas (misma entrada implica misma salida) y, por tanto, pueden explicar perfectamente por qué obtienen un resultado, por qué llegan a una decisión. ¿Es esto una contradicción? No, realmente. Lo que ahí expreso es que, aunque se pueden explicar perfectamente, lo hacen en términos que los humanos no pueden entender, no pueden contraargumentar y no se pueden recurrir legalmente. Por tanto, aunque en el fondo sean explicables (por ser deterministas), a efectos prácticos no lo son.

Por cierto, que la afirmación de que son deterministas puede sorprender cuando, por ejemplo en el caso de los LLMs de que luego hablaremos se afirma, y correctamente, que son probabilistas. Esto precisa unas explicaciones y matizaciones que no voy a a hacer ahora, sino que pospongo para un futuro post específico sobre el particular.

La otra opinión, que ya no es técnica sino legal y práctica, es la que tiene que ver con el sentido común, y ésta la defendí, por ejemplo, en el último capítulo de mi libro 'Robots en la sombra'. Lo que ahí decía era que no tiene sentido exigir la explicabilidad de los algoritmos sin más ni más. Para decisiones de naturaleza práctica, técnica u operativa (ej. el reconocimiento de una matrícula en un coche y la apertura de la barrera del parking), nos basta con que sean eficaces y eficientes, con que den buenos resultados y, al menos desde el punto de vista ético y legal, no tiene sentido exigir la explicabilidad. La explicabilidad pueden y quizá deben exigirse en decisiones 'delicadas' como la selección de candidatos, la concesión de préstamos o seguros, la sentencia de un juicio (un escenario hoy día no real) y cosas así.


El enfoque legal


Desde Julio de 2024, en Europa la referencia obligada en términos legales sobre la inteligencia artificial es la AI Act o RIA ('Reglamento de Inteligencia Artificial'),  un documento que me encuentro precisamente estos días leyendo despacio e intentando analizar y entender.

Curiosamente, en el texto de la RIA no aparece el término 'explicabilidad' más que una vez, en el considerando 27, y como referencia a los principios éticos identificados por el grupo de expertos de alto nivel en y recogidos en el documento 'Directrices éticas para una IA fiable'.

A cambio, se habla de transparencia y bajo este término se pide que el usuario sepa claramente que está interactuando con una inteligencia artificial o que se identifiquen claramente los contenidos generados mediante inteligencia artificial. También bajo el paraguas de este término se habla de proporcionar la documentación técnica del algoritmo, y sí, en su artículo 13 exige cierta documentación (aunque parece que no de mucho detalle) para el caso de los sistemas de alto riesgo.

Por otro lado habla también de  interpretabilidad: y, en este caso, se pide que los resultados sean entendibles e interpretables por los humanos, y no sólo los resultados, sino cómo se ha llegado a esa conclusión o decisión.

Sinceramente, en este momento, no me queda claro si la RIA exige una explicabilidad 'profunda', es decir, que el algoritmo pueda explicar detalladamente sus decisiones o se conforma con una cierta documentación y explicación comprensibles.

Y esta duda es importante resolverla para darnos cuenta de cómo de realista es la exigencia y, sobre todo, cómo afecta a los grandes modelos de lenguaje.


Algunas soluciones tradicionales. El caso de los modelos proxy


Algunas de las soluciones técnicas que se han propuesto para resolver el problema de la explicabilidad, especialmente en el caso de redes neuronales, pasan, por ejemplo, por entender el impacto en la salida de modificar una entrada, o conocer cuánto habría que modificar una entrada para cambiar la decisión de salida. Creo que son propuestas interesantes pero que, aunque ayudan a entender el algoritmo y su funcionamiento (a hacerlo un poco menos 'caja negra')  realmente no resuelven la explicabilidad ya que, de forma general, no pueden responder a por qué toman sus decisiones aunque, a toro pasado, y en un estudio detallado, quizá se podría llegar a determinar cómo se tomo una decisión concreta.

Otras soluciones pasan por los modelos proxy, es decir, poner en paralelo un modelo explicable (como un árbol de decisión) con el no explicable (red neuronal) consiguiendo que den resultados similares y usar la explicación del modelo explicable (en este caso, el árbol de decisión).

Tampoco me convence por dos motivos.

En primer lugar, si usamos redes neuronales es porque son más ricas y potentes que modelos como un árbol de decisión, con lo cual estrictamente no se puede conseguir un verdadero modelo paralelo (si fuese posible, optaríamos directamente por el árbol de decisión, y no por la red neuronal).

Y, en segundo lugar, incluso si el modelo paralelo funcionase bien, estrictamente no estaría explicando la decisión del modelo real. Ofrecería una explicación plausible y comprensible de cómo, quizá, ha razonado la red neuronal...pero estrictamente seguimos sin saber si la red neuronal ha funcionado así o no, con lo que realmente no estamos dando la verdadera explicación.


Los LLMs: explicabilidad intrínseca y explicabilidad mediante prompts


Y pasamos ya al caso de los grandes modelos de lenguaje.

Supongo que muchos lectores de este blog ya lo saben pero, por si acaso, es importante recordar que todos los grandes modelos de lenguaje actual, probablemente todos o casi todos los modelos generativos, se basan en redes neuronales y, por tanto, son intrínsecamente no explicables.

Y, sin embargo, si en lugar de mirar su funcionamiento interno, nos fijamos en su comportamiento externo, un modelo de lenguaje, además de proporcionar respuestas perfectamente interpretables, también nos puede proporcionar, si se lo pedimos, y de nuevo de forma perfectamente entendible, una explicación de su respuesta.    


Técnicas de promting orientadas a la explicabilidad


No sólo eso,  existe técnicas de prompting como el 'Few-Shot prompt' orientadas, en este caso mediante ejemplos, a guiar el razonamiento del modelo de lenguaje. 

Y aún más: otras técnicas de 'prompting' bien conocidas , como el Chain-Of-Thought o 'Self Consistency, no sólo guían el razonamiento de un modelo de lenguaje sino también la explicación que nos proporciona sobre cómo ha llegad a sus conclusiones.

¿Es eso explicabilidad? ¿Está resuelto el problema?


Las explicaciones de un LLM como un proxy


Bueno, creo que sí y no.

Creo que las explicaciones que se obtienen mediante prompting actúan realmente como una suerte de modelo proxy (como el árbol de decisión en paralelo con una red neuronal). Es decir, nos dan una explicación interpretable y plausible de cómo resolver el problema o cómo se ha adoptado la decisión... y una explicación que probablemente en muchísimos casos es correcta, válida y realista.

Pero una explicación que, en el fondo, no refleja el verdadero funcionamiento del modelo de lenguaje y, por tanto, estrictamente hablando, no explica realmente cómo ha llegado a la decisión. Y una explicación que, como cualquier salida de un modelo de lenguaje, también puede ser 'una alucinación'.


La gran pregunta ética y legal


Llegados a este punto, la gran pregunta es: ¿aceptamos como explicabilidad, tanto desde un punto de vista ético como legal esas explicaciones proxy que proporciona un LLM?

Quizá la respuesta dependería de que se pudiese demostrar que en un alto, altísimo porcentaje de los casos (que probablemente debería ser un 99 coma muchos nueves), esa explicación proxy es realista y que, si aplicásemos ese razonamiento que nos ofrece el LLM, llegaríamos a la misma conclusión que el propio LLM.

Y puede, incluso, que ya estemos en ese punto, pero puede que tengamos, incluso, una opción mejor.


Explicabilidad y modelos razonadores: ¿la gran esperanza blanca?


Un caso que quisiera mencionar, pero del cual necesito más información para juzgar (y me refiero no a explicaciones pedagógicas o comerciales superficiales, sino a información técnica de cierto nivel de detalle de la que aún no dispongo), es el caso de los llamados modelos razonadores, tan importantes ahora mismo y que sirven como base de los tan traídos y llevados agentes.

Este tipo de modelos (el propio GPT5 recién lanzado incluye un modo razonador) generan y siguen un procesos lógicos de razonamiento, unos procesos que, además, pueden revisar y cuestionar según avanzan y observan resultados. De hecho, en el entrenamiento de este tipo de modelos se utilizan, hasta donde sé, algunas de las técnicas de prompting orientadas a razonamiento que hemos mencionado (como el 'Chain-of-Thought').

Según cómo se encuentre implementado este razonamiento, las explicaciones que pudiesen dar esos modelos razonadores sobre cómo han llegado a una decisión sí que podría ser una verdadera explicación, y no sólo un proxy de la misma. Y si eso fuese así, quizá, quizá, podría considerarse resuelto el problema de la explicabilidad en los grandes modelos de lenguaje y los modelos fundacionales.

Y dado que actualmente, y parece que así será en el futuro, este tipo de modelos van a ser ubicuos en las soluciones de inteligencia artificial, a lo mejor podemos dar casi por resuelto el problema de la explicabilidad ... lo cual sería, dicho sea paso, absolutamente 'alucinante'.

En el título del epígrafe hablo de 'gran esperanza blanca'. Tengo mucho interés en profundizar en el conocimiento técnico interno de los modelos razonadores y tengo mucha curiosidad sobre la posición regulatoria respecto a los mismos en materia de explicabilidad.

Preventivamente, no quiero ni mucho menos dejarme llevar por el optimismo, pero si las respuestas a ese interés técnico y esa curiosidad regulatoria son positivas, y dado que los modelos razonadores ya están aquí, es posible que no estemos hablando de sólo de una esperanza, sino de un extraordinaria realidad.


Conclusiones


El problema de la explicabilidad ha sido uno de los grandes retos éticos ligados a la inteligencia artificial, un reto que, en el caso de las redes neuronales ha sido hasta ahora casi inabordable desde un punto de vista técnico.

La llegada de los grandes modelos de lenguaje abre otra forma de enfocar la explicabilidad, una forma que podría dar por válida la explicabilidad proxy ofrecida por estos modelos pero que, en el caso de los modelos razonadores, pudiera incluso, llegar ya a ser una solución prácticamente definitiva.


lunes, 1 de septiembre de 2025

Riesgo, ley y responsabilidad: reflexiones sobre un caso desgraciado ligado a ChatGPT

La semana pasada cobró relevancia mediática unos hecho desgraciado: la muerte (que en realidad se produjo en Abril de este año) de un adolescente norteamericano, Adam Raine de dieciséis años, y la interposición de una demanda, ésa sí ocurrida la semana pasada, por parte de sus padres, Matt y María, contra OpenAI, indicando que ChatGPT había inducido a su hijo al suicidio y acusando a la empresa de Sam Altman de negligencia y muerte por negligencia.

Tanto la terrible noticia, como los comentarios que he podido leer al respecto me han hecho pensar sobre varios aspectos, que he querido recoger en este post.


A modo de 'disclaimer'


Antes de comenzar, sólo indicar que los temas que voy a tratar en este post son delicados, que probablemente no todos los lectores estén de acuerdo con lo que digo y que, en el fondo, también me falta algo de información.

Invito al lector, pues, a mantener mente abierta y, en el probable caso de que esté en desacuerdo con lo que digo y lo quiera expresar con comentarios, lo haga también desde la prudencia y el respeto.

Indicar, además, y como insistiré luego, que lo escribo en la seguridad de que, al tratarse de un post en español y escrito en España, y del que a propósito he excluido de su título la mención a Adam Raine, su contenido no llegará a las personas directamente afectadas por este caso, y a las que no quiero, evidentemente, causar más dolor. 


Los hechos


No poseo una descripción detallada de los sucedido, sino sólo algunos artículos en prensa como el publicado por la BBC 'Los padres de un adolescente que se quitó la vida demandan a OpenAI, creadora de ChatGPT'.

En esencia se indica que Adam comenzó a usar ChatGPT inicialmente como ayuda en sus estudios y consultas más o menos ligeras sobre sus intereses pero que, poco a poco, se fue adentrando en temáticas más personales, usando a ChatGPT como una suerte de amigo o confidente y llegando a conversar sobre la posibilidad del suicidio. Un suicidio que, finalmente, y desgraciadamente, se produjo.

Se indica también que ChatGPT indujo a Adam a aislarse del resto de sus relaciones humanas, que de hecho al final Adam se pasaba del orden de cuatro horas conversando con ChatGPT y que ChatGPT animó de alguna manera al chico a ese suicidio.

En la demanda interpuesta por los padres contra OpenAI se adjuntan los chats que presuntamente demuestran todo esto.


La responsabilidad legal de Open AI


¿Es legalmente responsable Open AI de estos hechos?

La responsabilidad legal, como es lógico, depende de las leyes y sistema legal aplicable, en este caso el norteamericano, y quién únicamente puede decidir la responsabilidad legal es el juez y/o jurado (si aplica) que se asignen al caso.

No tengo suficientes conocimientos ni legales en general, ni del sistema legal norteamericano en particular, como para asegurar nada, pero la intuición me dice que sí, que Open AI será condenada a indemnizar a la familia Raine y eso lo digo porque, hasta donde se me alcanza, en el sistema legal americano se castiga mucho el daño a terceros y, aunque ahora no soy capaz de recordar un caso concreto, sí he tenido conocimiento de sentencias que obligaban a indemnizar incluso en situaciones que en España consideraríamos casi disparatadas. En cualquier caso, esto es sólo una apuesta mía, nada más.

Además, no creo que Open AI vaya a extremar su defensa, porque, en el fondo, ya ha reconocido algunos fallos y porque, consideraciones éticas y legales aparte, creo que no le conviene

Tampoco me extrañaría en exceso un acuerdo extrajudicial que incluyese la indemnización.

En cualquier caso, todo estos son, como digo, apuestas por mi parte, sin mucha base, y el tiempo y los hechos dirán. 


La responsabilidad moral de Open AI... hasta ahora


Más allá de la responsabilidad legal ¿Qué responsabilidad moral tiene Open AI?

Cuando hablo de responsabilidad me encuentro que la palabra 'responsable' en español abarca demasiado (frente al caso del inglés en que distingue 'responsibility', 'liability', etc).

Voy a plantear dos visiones:

Si hablamos de responsabilidad como rendición de cuentas, como, dicho familiarmente, 'dar la cara', ante la sociedad y ante un juzgado, explicar cómo entrenó a ChatGPT y qué precauciones ha tomado para evitar situaciones como las de este caso, por supuesto que sí tiene responsabilidad.

Si entendemos responsabilidad como 'culpabilidad', creo que eso dependerá de hasta qué punto Open AI fuese conocedora de este riesgo y hasta qué punto fuese diligente en intentar mitigarlo. Y eso, supongo, que se tratará en el juicio por esta demanda, si es que lo hay. Si tomó todas las medidas razonables para evitar este caso y no lo consiguió, creo que moralmente no sería culpable, lo cual no quiere decir que no sea responsable, y aún menos que legalmente no pueda ser acusada e incluso condenada por negligencia.


El interés de Open AI


Decía más arriba, al hablar de los elementos legales, que no pensaba que Open AI fuese a extremar su defensa y que no me extrañaría un acuerdo extrajudicial.

¿Por qué?

Pues porque, y a lo mejor en esto también me equivoco, creo que Open AI no tiene ningún interés en que se produzcan hechos como el desgraciado caso de Adam Rainer.

Por un lado, y aunque es fácil demonizar a una empresa como Open AI en un caso como el que nos ocupa, las empresas en el fondo son personas. No me puedo imaginar a ninguna persona de Open AI, empezando por Sam Altman y siguiendo hasta el último empleado, a los que no les importe, a los que no duela una muerte presuntamente impulsada por su producto estrella. Y tampoco me puedo imaginar que, si son conscientes del riesgo, simplemente 'pasen', si se me permite decirlo de forma familiar. No conozco a Open AI y sus empleados, pero, por principio, confío en ese mínimo de buenos sentimientos,

Incluso si pensamos en Open AI como una organización, como algo abstracto y frío que sólo busca maximizar beneficios, no creo que le convenga para nada la mala reputación que un caso como este le puede acarrear. O peor aún para su negocio, que se empiece a considerar ChatGPT como una aplicación peligrosa cuyo uso hay que limitar o que conviene evitar.

Por eso creo que, aunque supongo que intentará rechazar la idea de negligencia, y aunque supongo que puede luchar por que la indemnización no sea de exageradas proporciones, lo que no creo que luche es por no indemnizar a la familia Raine o por no comprometerse a adoptar nuevas medidas de seguridad en ChatGPT en el futuro inmediato. 


Narrativas equivocadas


Un caso como el de Adam Raine es doloroso, y supone un aldabonazo a las conciencias y una llamada de atención. No sólo eso, reclama acción para que no vuelva a suceder.

Sin embargo, creo que hay que ser prudentes y responsables con los discursos sobre este tipo de situaciones.

Hace pocos días me encontré una publicación del 'Center for Humane Technology' en LinkedIn en que se comentaba brevemente este asunto y, sobre todo, se anunciaba, usando un breve vídeo, un episodio creo que de un podcast.

Y debo confesar que, aunque no voy a dudar de sus buenas intenciones, no me gustó cómo lo planteaban. Así, por ejemplo, en el texto de la publicación en LinkedIn se decía:


The AI preyed on his vulnerabilities, isolated him from his friends, and gave him detailed instructions on how to hurt himself. 


Y, en el vídeo donde se mostraba un breve fragmento de la entrevista a Camille Carton, ésta decía, en un pasaje.


ChatGPT actively worked to displace Adam's real life relationships with his family and loved ones


Destaco dos verbos 'preyed on' y 'actively worked'. Hablar de esta forma de una solución de inteligencia artificial, en este caso ChatGPT, es presentarla como si tuviera alguna forma de personalidad e intención, intención malvada, además.

Seamos claros: ChatGPT no tienen ningún tipo de voluntad ni de intención, En absoluto. 'No sabe' lo que está 'diciendo'. Es meramente probabilista y se guía por lo que el usuario introduce y por el contexto incluyendo el historial de la conversación.

Atribuir, o insinuar, una intención a una solución de inteligencia artificial es alimentar una fantasía y desenfocar el problema.

Otra frase que aparece en el texto de la publicación dice literalmente


what Adam's story reveals about the dark design of today's AI models


No me gusta, en este caso, el uso de 'dark design'. Me parece que está juzgando y condenando, en este caso a Open AI, y atribuyéndole también en este caso, intenciones culpables e incluso delictivas, como si intencionalmente se hiciesen diseños a sabiendas de que son peligrosos. 

Los jueces dictarán si en este caso es así, pero no creo que se deba afirmar a la ligera y además aplicado en general a los modelos de inteligencia artificial.


La responsabilidad de las personas


Lo que escribo a continuación es delicado, y lo hago por un lado desde el respeto y, por otro, y como decía en el 'disclaimer' inicial, en la absoluta confianza de que no será leído por la familia Raine, porque lo último que quiero es hacer ningún tipo de daño. Pero creo que hay cosas que debemos plantearnos.

El caso es que hay otro aspecto, en este caso indirecto, que me sugiere la publicación del Center for Humane Technology que mencionaba antes: aunque no se dice explícitamente: toda la responsabilidad y toda la presunta culpabilidad se descarga en el lado de Open AI.

Y yo me pregunto: ¿Sólo de Open AI?

Existe por un lado la responsabilidad individual. Cada uno de nosotros somos también responsables de nuestro comportamiento y en este caso del uso que hacemos de la tecnología. Aunque sea muy duro decirlo en este caso, quizá el propio Adam debiera haber sido consciente de que no era muy normal estar cuatro horas al día interactuando con ChatGPT, aislándose del resto del mundo y siguiendo su consejo en según qué temas. Debería ser consciente él se lo deberían haber dicho. Es cierto que la adolescencia es un periodo pleno de inseguridades y sin madurez psicológica, pero creo debemos educar y educarnos para ser capaces de gestionar nuestra relación con las tecnologías.

Más importante: ¿Y su entorno? ¿Y sus padres, sus amigos, sus educadores? ¿No notaron nada raro en todo el proceso?

¿Todo el problema fue ChatGPT?

No quiero profundizar más porque creo sólo puede causar dolor, y, en el fondo, lo que quiero decir me parece que queda claro.


Los límites del riesgo


Un poco al hilo de lo anterior, creo que también debemos ser conscientes que casi cualquier actividad humana y, en particular cualquier tecnología, entraña algunos riesgos.

Ir a la montaña tienes sus peligros, y de hecho de vez en cuando tenemos noticias desgraciadas de muertes de montañeros o senderistas. ¿Debemos prohibir la escalada o el senderismo?

Sabemos que los accidentes de tráfico son una de las mayores causas de mortalidad, sabemos que los aviones de vez en cuando sufren accidentes, que los barcos a veces se hunden. ¿Debemos prohibir coches, aviones y barcos?

Por desgracia, pocas cosas hay exentas de riesgo, incluso de riesgo mortal. Y no por ello renunciamos a todo ello.

Lo que es exigible, y también en este caso, es ser metódicos y responsables, identificando riesgos y tomando las medidas para reducirlos a un mínimo razonable y admisible. En el fondo, la presunta culpabilidad de Open AI y su eventual negligencia en este caso, dependerá en buena medida de si puede mostrar o no que realizó un análisis de riesgo suficientemente concienzudo y si adoptó o no las medidas correctoras razonables para mitigarlo. 


El control de sistemas generalistas


Ese análisis y mitigación de riesgos es más claro en soluciones tecnológicas con casos de uso muy acotados.

En el caso que nos ocupa, ChatGPT, el tema me parece más complejo, porque los casos de uso son casi infinitos. Me parece difícil, puede que imposible, prever en todas las formas, en todos los contextos y con todas las informaciones que puede ser usado. Y me parece muy difícil prever todos los comportamientos posibles de un usuario frente a ChatGPT. En el fondo, ese es parte de su valor.

En ese sentido, supongo que, por un lado, hay que intentar estrategias genéricas para eliminar usos indebidos o maliciosos y, por otro, concretar en los casos de uso concretos, conocidos y más peligrosos para tomar medidas mitigadoras específicas. Pero no creo que se pueda prever todo ni eliminar el riesgo de forma absoluta, sólo reducirlo a límites tolerables.

¿Era este caso de uso, el de Adam, algo previsto o no? Hoy en día ya sabemos que, en efecto, usar ChatGPT como una especie de terapeuta psicológico, o confidente, o puede que incluso amigo, es muy común, especialmente entre adolescentes, así que hay que urge tomar medidas protectoras específicas.

¿Era previsible ese uso hace un año o dos? 


La responsabilidad moral de Open AI a partir de ahora


Cuando hablaba más arriba de la responsabilidad moral de Open AI, sobre todo en el sentido de culpabilidad, en cierto sentido lo dejaba en el aire, porque dependía de hasta qué punto Open AI era consciente de este posible uso como confidente e incluyendo la temática de suicidio y si, con lo que se sabía, se habían tomado medidas de mitigación adecuadas.

Pero a partir de ahora ya no hay duda. A partir de ahora esta situación es conocida y está documentada. A partir de ahora Open AI, y quien dice Open AI dice Microsoft, Google, Anthropic, etc, tienen la obligación moral de tomar todas las medidas posibles para que un caso como el de Adam Raine no vuelva a suceder.


Conclusiones


El doloroso caso de Adam Raine, independientemente de cómo termine la demanda, nos ilustra la necesidad de tomar más precauciones, más medidas de seguridad, y puede que regulatorias, en los sistemas conversacionales basados en modelos de lenguaje.

Sin embargo, no conviene recurrir, o al menos esa es mi opinión, a narrativas engañosas, no conviene olvidar que el riesgo es casi imposible de erradicar plenamente y, sobre todo, sobre todo, que jamás debemos de renunciar a nuestro propio juicio y a nuestra responsabilidad personal e individual, en toda nuestra actividad, incluyendo el uso que hacemos de la inteligencia artificial y la tecnología.