miércoles, 26 de noviembre de 2025

Una riqueza oculta: la aportación de la tecnología que no se ve en el PIB

Creo que la mayoría de las personas, y desde luego es mi caso, entienden que la tecnología, en general, tiende a aumentar la eficiencia en tareas y procesos y, en conjunto, la productividad de las personas, las empresas y la sociedad.

Debido a eso, el uso de la tecnología aumenta la disponibilidad de productos y servicios y, por tanto, la riqueza de las naciones y, en la medida que esa riqueza se distribuya adecuadamente, la riqueza de las personas.

Y sin embargo, eso que intuitivamente damos como cierto, o al menos yo lo doy como tal, no se refleja adecuadamente en algunas cifras macroeconómicas.

Lo comento,


El PIB como medida de la riqueza


Desde el punto de vista macroeconómico, la medida de las riquezas de las naciones es el Producto Interior Bruto (PIB), una medida que traduce en dinero (en euros o dólares) la generación anual de productos y servicios de una nación.

En ese sentido, el PIB no deja de ser una medida de la riqueza de las naciones (o quizá, algo mejor dicho, de la producción anual de riqueza). Y el PIB per cápita nos diría cómo, en media se reparte esa riqueza entre los ciudadanos de esa nación.


El concepto de productividad


Si ahora, más que a la producción global de riqueza (que nos mide el PIB) queremos conocer la productividad de una nación, se suele recurrir a la denominada Productividad laboral que se obtiene dividiendo el PIB entre el número total de horas trabajadas.


La tecnología y lo que cabe esperar


Si creemos, y yo lo creo, que la tecnología aumenta la riqueza y la productividad, a medida que introducimos más y más tecnología, debe aumentar la riqueza de las naciones y la productividad. Es decir, si el resto de los factores se mantienen iguales, debería aumentar tanto el PIB como la productividad laboral.


El PIB y la innovación tecnológica


De hecho, ya hace bastantes años, un estudio realizado por el premio Nóbel de economía en 1987, Robert Sollow, tras estudiar la evolución del PIB de los Estados Unidos concluyó que, para explicar el crecimiento de es PIB no le bastaba con los elementos tradicionales, capital y mano de obra sino que había una parte de ese crecimiento que procedía de la innovación tecnológica.


La paradoja: una riqueza no reflejada


Y, sin embargo, leyendo el libro 'The singularity is nearer' de Ray Kurzweil, que pese al carácter futurista y quizá descabellado que se le pueda atribuir, realiza mucho análisis basado en datos macroeconómicos, me encuentro con que, en apariencia, en los últimos años, pese al aparente avance de la tecnología y la automatización, ese uso tecnológico no se está reflejando en mayores PIB o en mayores productividades.

¿Cómo es posible?

Por supuesto, podemos pensar que la tecnología, por sí misma, sí que aumenta el PIB y la productividad pero que existen otros factores que operan en contra y que están pesando mucho en la evolución de esas magnitudes macroeconómicas.

O podríamos pensar que, pese a que hay mucha tecnología disponible, quizá el nivel de adopción no es tan alto como pensamos o la eficacia con que se adopta no es buena.


La explicación de Ray Kurzweil


Si embargo, y sin descartar ese tipo de explicaciones, me interesan mucho un par de argumentos que aporta Kurzweil en su libro pensando específicamente en tecnologías digitales.

Por un lado hace notar que en el mundo digital existe una enorme cantidad de soluciones, servicios, etc que son gratuitos. Es decir, el producto / servicio existe, y por tanto es una riqueza que se genera, pero al ser gratuito no se refleja en el PIB y, por tanto, tampoco en la productividad.

Y por otro lado, y en una línea parecida aunque ligeramente diferente, dice que el aumento de prestaciones y capacidad de las soluciones tecnológicas aumenta claramente pero, sin embargo, ese crecimiento en capacidad, prestaciones y resultados, no se refleja en el precio, que se mantiene igual o parecido, cuando no más bajo. Es decir, las prestaciones objetivas, lo que obtienen personas y empresas, es mayor, y por tanto la riqueza es mayor, pero sin embargo su medida económica es similar o menor. Es decir, de nuevo, ese incremento de riqueza no se refleja en el PIB (que es donde debiera reflejarse) y, por tanto, tampoco en la productividad, tal y como la medimos.


Conclusiones


No sé si la conclusión de todo esto es que debiéramos empezar a adoptar una medida de la producción de la riqueza diferente al PIB (cosa muy difícil, claro) o si basta con que, al menos, seamos conscientes de este fenómeno, que esa consciencia nos lleve a nivel político o empresarial a tomar decisiones adecuadas y, desde el punto de vista personal, a mantener la confianza en la tecnología y su capacidad para generar riqueza y aumentar la productividad.


miércoles, 19 de noviembre de 2025

Seis pasos hacia la singularidad

Uno de los temas que más aterrorizan, o que más inspiran y motivan, según el caso, las reflexiones sobre el impacto ético y social de la tecnología en general, y de la inteligencia artificial en particular, es el de la así llamada singularidad a la que, para hablar con más propiedad, deberíamos dar apellido para hablar con más propiedad de singularidad tecnológica

Un horizonte, para algunos autores no tan lejano, y para otros imposible, y que nos refiere a una inteligencia artificial general (AGI, 'Artificial General Intelligence'), superior a la humana (superinteligencia) y con capacidad para asumir el control.

¿Es eso posible? ¿Está cerca? ¿Está lejos? Y, en lo que se refiere a este post ¿Cómo se llega hasta esa situación (si es que se llega)?

En este post, voy a revisar sobre todo la última pregunta, con base en el libro 'The singularity is nearer' de uno de los más conocidos divulgadores y apóstoles de esa singularidad: Ray Kurzweil.


Alguna idea previa sobre la singularidad


La verdad es que, hasta ahora, no recuerdo haber leído una definición estricta de lo que es la singularidad (aunque seguramente haya multitud de definiciones) pero para mí, la idea de la singularidad con la que me he quedado, incluye estos tres puntos:


  • Existencia de una inteligencia artificial general, es decir, no orientada a temáticas concretas sino de propósito general, capaz de tratar todo tipo de temas y situaciones.
  • Esa inteligencia artificial es superior a la humana.
  • Se trata de una inteligencia artificial autónoma. en el sentido de que es capaz de cuidar de sí misma y evolucionarse, sin necesidad de los humanos.


Si los dos primeros puntos impresionan, e incluso asustan, el que es realmente peligroso es el tercero e inspira propuestas como la del alineamiento o la necesidad del control.


La explicación de Kurzweil


Leyendo, como digo, a Kurweil, esperaba, al principio del libro, su definición de singularidad, a ver si coincide con lo que hasta ahora he entendido y que he reflejado en los tres puntos anteriores.

Sin embargo, aunque lo explica, no aporta una definición como tal, sino eso: una explicación.

Primero, nos habla de unas áreas de cambio clave y que se están acelerando: una capacidad de computación cada vez más barata, un mejor entendimiento de la biología humana y la capacidad de realizar ingeniería a escalas muy reducidas.


There are several key areas of change that are continuing to accelerate simultaneously: computing power is becoming cheaper, human biology is becoming better understood, and engineering is becoming possible at far smaller scales.


Luego salta a la inteligencia artificial, su mejora, su mayor capacidad y su cada vez más cercana integración con la inteligencia biológica humana.


As artificial intelligence grows in ability and information becomes more accessible, we are integrating these capabilities ever more closely with our natural biological intelligence.


Y, finalmente, la posibilidad de, usando nanotecnología, expandir nuestros cerebros mediante la integración con la inteligencia artificial, expandiendo la inteligencia y consciencia humana.


Eventually nanotechnology will enable these trends to culminate in directly expanding our brains with layers of virtual neurons in the cloud. In this way we will merge with AI and augment ourselves with millions of times the computational power that our biology gave us. This will expand our intelligence and consciousness so profoundly that it’s difficult to comprehend.


Y el punto en que se alcanza esa integración, es la singularidad para Kurzweil.


This event is what I mean by the Singularity.



Una visión transhumanista


Así, expresado, realmente la singularidad parece algo diferente, bastante diferente, en realidad, a la concepción que yo tenía antes de la lectura de este libro (y, que, en el fondo, creo que es el entendimiento generalizado) acerca de la singularidad.

Si en el entendimiento que como digo creo generalizado y que he resumido más arriba, se ve a la singularidad muy centrada en la inteligencia artificial, y entendiendo a la inteligencia artificial como 'un otro' que nos puede superar y quien sabe si exterminar, en la propuesta de Kurzweil me encuentro una visión que calificaría de transhumanista y que, por supuesto, incluye un desarrollo enorme de la inteligencia artificial, pero que busca sobre todo la fusión de la inteligencia humana con esa artificial potenciando las capacidades humanas.

Y lo que determina la singularidad no es que nos supere una inteligencia artificial, sino, como digo, que nos fusionemos de alguna manera con ella.  


Expectativas y el crecimiento exponencial


En lo que he leído o escuchado hasta ahora relativo a la singularidad, sea en el sentido transhumanista que acabo de exponer, o sea en el entendimiento más como algo externo que se desarrolla por encima del ser humano, no me he encontrado, probablemente sea imposible encontrarlo, ningún tipo de demostración de su posibilidad, ni tampoco una ruta, un 'roadmap' de cómo llegar hasta allí.

Más bien se trata de unas expectativas, más o menos fundamentadas o razonadas.

Unas expectativas que, por un lado, miran al patrón del desarrollo de la tecnología en el pasado, y especulan con un desarrollo futuro que se apoya en esos patrones y en una concepción de crecimiento exponencial

Recuerdo, que, a despecho del frecuente mal uso que se hace del término exponencial, un crecimiento exponencial no es exactamente un gran crecimiento, sino un patrón (formulable matemáticamente) que inicialmente supone un crecimiento muy lento, casi imperceptible, pero que luego se va acelerando y acelerando y acaba siendo realmente explosivo.

Pues bien, gran parte de las expectativas relativas a la singularidad, especialmente a la fijación de su fecha que, por ejemplo, Kurzweil sitúa en 2045, se basan en un crecimiento exponencial de las capacidades tecnológicas, desde la situación actual, hasta proyectarse a ese futuro extraordinario pero no tan lejano. 

Un caso muy conocido, y muy referenciado también por los apóstoles de la singularidad, es la famosa Ley de Moore, relativa a la integración de transistores en un microprocesador y, como derivada, crecimiento de capacidad de computación.

Con base en esa expectativa de mejora exponencial de las capacidades tecnológicas, se espera, no sólo que la singularidad sea posible, sino incluso, relativamente cercana.


Los seis pasos


Como decía más arriba, hasta ahora no soy consciente, aunque seguro que hay propuestas, de haber visto realmente una ruta, un 'roadmap' con sus pasos y sus hitos, que nos conduzca desde nuestra situación actual hasta la singularidad.

Sin embargo, en el libro 'The singularity is nearer' me encuentro, y ya en el primer capítulo, quizá no un roadmap como tal, pero sí al menos seis grandes pasos, épocas o fases como las llama Kurzweil, que nos deben llevar hacia la singularidad. Son las siguientes:


  • 1. Nacimiento de las leyes de la física y la química: Algo que se sitúa miles de millones de años atrás, poco después del 'big bang'.

  • 2. Organismos con ADN: Todavía varios miles de millones atrás, las moléculas se unieron en organismos suficientemente complejos como para estar dotados de ADN, constituyéndose en criaturas capaces de expandirse y evolucionar.

  • 3. Formación de cerebros: hace unos millones de años, aparecieron animales con cerebros, siendo esos cerebros capaces de procesar por sí mismos información.

  • 4. Aparición de los seres humanos: Más allá del interés evidente que para nosotros tiene este hecho, lo relevante es la unión de unos seres con capacidades cognitivas superiores con la existencia de pulgares en sus manos, lo que permite transformar los pensamiento en acciones complejas.

  • 5. Unión de las capacidades biológicas con las tecnológicas: A través fundamentalmente de la neurotecnología o BCI ('Brain Computer Interface') se posibilita la interacción de nuestro cerebro y sistema nervioso con equipos digitales, es decir, la mezcla de las capacidades cognitivas biológicas de los humanos con la tecnología digital.

  • Computronium: Con ese curioso nombre, designa el autor la expansión de nuestra inteligencia por todo el universo, transformando la materia ordinaria en ese 'computronium' que es una materia organizada según la densidad de la computación (reconozco que lo que quiere decir exactamente esta frase sobre la densidad, no lo tengo del todo claro). Este el el punto clave, el hito de la singularidad.

Kurzweil entiende que estamos en la cuarta época o fase aunque, apunto yo, bien es verdad que todavía de forma bastante primitiva, ya se han dado los primeros pasos en neurotecnología, así que quizá podría decirse que estamos iniciando tímidamente la quinta. Para Kurzweil, esa quinta fase se completaría tan cerca como 2029 (dentro de cuatro años cuando escribo esto).

Y la sexta y última, la singularidad, como ya hemos dicho, Kurzweil la sitúa en 2045, dentro de veinte años


Conclusiones


Realmente, la hipótesis de la singularidad (parece que incluso su naturaleza exacta) es eso, una hipótesis, un planteamiento, en que hay autores que creen firmemente, como Kurzweil, mientras que otros sin escépticos o, directamente, niegan su posibilidad.

Aunque no existe, a menos que yo sepa, ningún verdadero 'roadmap' que nos conduzca a esa singularidad, al menos Kurzweil se propone seis grandes épocas, seis grandes fases, y se atreve a dar fechas para todas ellas.

El tiempo le dará o quitará la razón y, dado lo agresivo de esas fechas que propone, eso no tardará en suceder.

Primer hito: 2029.

El hito clave: 2045.


lunes, 10 de noviembre de 2025

Prompt engineering y un sorprendente renacimiento de la escritura

Ante el empuje de las nuevas tecnologías, ante sus cada vez mayores capacidades y amplitud de adopción, tendemos a temer, y no sin cierto fundamento, que se pierdan capacidades cognitivas o relacionales humanas.

Así , parece demostrado que, especialmente en el caso de las generaciones más jóvenes, la costumbre de los continuos estímulos, y del uso de mensajes cortitos en los móviles y en las redes sociales, están conduciendo a la dificultad para mantener la atención durante mucho tiempo (en realidad, ni siquiera hace falta que sea mucho). También el uso de los sistemas de mensajería lleva, por ejemplo, a la adopción de abreviaturas, emojis y otros recursos (o directamente errores) que se traducen en el uso de un lenguaje muy deficiente. O la disponibilidad de datos en el buscador o en wikipedia, el almacenamiento de los números de teléfonos en los móviles o la existencia de sistemas de guiado como Google Maps corren en contra de nuestra capacidad de memorizar.

Sin embargo, quizá exista una disciplina y una tecnología, el 'prompt engineering' y los grandes modelos de lenguaje respectivamente que, sorprendentemente, nos reclamen la recuperación de una de esas capacidades: el manejo del lenguaje, especialmente el lenguaje escrito.


Prompt engineering


Como probablemente conozcan muchos de los lectores de este blog, el 'prompt engineering' es una especie de disciplina que nos enseña a cómo redactar unos 'prompts' (instrucciones) efectivos, es decir a a saber cómo relacionarnos con un gran modelo de lenguaje.

Esta interacción se produce en ocasiones, las más conocidas, a través de una aplicación de tipo chat o generativa. Pero también se hace, y esto es menos conocido, en código escrito por parte de desarrolladores que están creando esas aplicaciones basadas en modelos de lenguaje.

En esta disciplina del 'prompt engineering' se enseñan, por ejemplo, las mejores estructuras de un prompt (qué apartados debe incluir) o técnicas, algunas de ellas fuertemente respaldadas por sesudos análisis estadísticos y otras más intuitivas. Entre las técnicas más conocidas (y estudiadas) se encuentran, por ejemplo, la cadena de pensamiento ('Chain of Thought') o el uso de unos pocos ejemplo ('Few-Shot prompting').

Sin embargo, al fin y a la postre, un 'prompt' no es más que un texto, un texto que normalmente escribimos (aunque se puede dictar de viva voz) y mediante el cual aportamos información al modelo de lenguaje y, sobre todo, de alguna forma le indicamos lo que queremos de él.


Dos habilidades verdaderamente importantes


Aunque saber estructurar un 'prompt', conocer las técnicas o entender cómo se maneja el contexto es importante, en mi experiencia hay dos competencias fundamentales, tanto o más que las anteriores y que, en el fondo, exceden o incluso son previas al 'prompt engineering'.

La primera de ellas es, simplemente, el conocimiento. Me refiero el conocimiento del dominio del problema en el marco del cual estás interactuando con el modelo del lenguaje o sobre el que le está preguntando. Si quieres pedir un análisis financiero, te conviene muy mucho tener conocimientos financieros, saber dar el contexto adecuado y pedirle cosas que tienen sentido en un contexto financiero. Si estás interrogando sobre un tema jurídico, debes conocer cómo funcionan los sistemas legales, qué legislación existe y, de nuevo qué le puedes o debes pedir al modelo de lenguaje. Incluso en el ámbito artístico, si quieres crear una imagen o un vídeo te conviene muy mucho tener conceptos de diseño gráfico o 'storytelling'. Si quieres, en fin, pedir a un modelo de lenguaje algo que te ayude en tu trabajo, necesitas saber, y aportar el conocimiento del contexto de la empresa, de su sector y de qué necesitas.

Ese conocimiento, remarco, se necesita, no sólo para saber evaluar críticamente la respuesta del modelo de lenguaje, que también, sino para 'saber preguntar' correctamente. Y el resultado  obtenido puede depender en gran medida de ello

La otra gran competencia necesaria es saber escribir o, por mejor decirlo, la capacidad de expresar de forma correcta, estructurada, clara y precisa, lo que se necesita y en qué contexto.


El renacimiento de la escritura


En efecto, aunque es cierto que los modelos de lenguaje presentan bastante tolerancia al error en temas como errores tipográficos o gramaticales, aunque son resilientes y pueden dar una respuesta razonable ante entradas no del todo correctas, también es cierto que el resultado mejora cuando se expresa de forma clara, correcta y precisa lo que el usuario desea del modelo de lenguaje.

En general, el resultado se beneficia de un 'prompt' bien estructurado, bien escrito, con frases breves y que transmita de forma clara y correcta la información de contexto y la o las acciones solicitadas. He podido observar, de hecho, de primera mano, cómo personas por lo demás competentes, tenían dificultad para escribir un 'prompt' cuando éste no era trivial, no por falta de conocimientos, sino por dificultad para plasmarlos por escrito.

Además de la redacción correcta y precisa, en ciertos casos es importante tener dominio de vocabulario. Por un lado, claro, el vocabulario propio del dominio del problema (técnico, económico, jurídico o lo que sea), pero también vocabulario más general, como el necesario para saber indicar el estilo o tono que debe adoptar el modelo de lenguaje o, en un ámbito más concreto, vocabulario de estilos musicales, pictóricos o fotográficos si queremos generar música, imagen o vídeo.

Con esto, el uso de grandes modelos de lenguaje, ya sea vía API en desarrollo, o a través de una interfaz de usuario, como en los famosos chatbots generativos como ChatGPT o Gemini, parece que nos está pidiendo usar de forma correcta y rica el lenguaje, nuestro precioso lenguaje. Y así, sorprendente y paradójicamente, la tecnología que más ha hecho por automatizar todo lo que tiene que ver con el uso del lenguaje, no sólo no nos lleva a olvidarlo, sino que nos demanda conocerlo y usarlo bien. 


¿Este renacimiento tiene futuro?


A pesar de todo, tampoco conviene ser muy optimistas. 

Por un lado, como ya he dicho, los modelos de lenguaje, aunque se benefician de recibir un texto correcto, detallado y preciso en su entrada, son bastante tolerantes con los textos mal escritos, así que, aunque 'nos piden' un buen texto de entrada, tampoco 'son tan exigentes'. Y especulo con que, con evoluciones tecnológicas que seguramente vendrán, y con el mero conocimiento acumulado del usuario, los modelos de lenguaje se pueden volver cada vez más tolerantes con las entradas mal escritas.

Por otra parte, además, aunque nos piden recibir un prompt bien escrito, también tienden a privarnos de las ocasiones para practicar la correcta escritura. Ya que algunos de los casos de uso más populares tiene que ver con la redacción de documentos, informes, ejercicios, correos electrónicos, etc, ya que, por tanto, el modelo de lenguaje (o, mejor, la aplicación que lo recubre) nos lo da hecho, perdemos esa ocasión de redactar nosotros mismos y, con ello, de mejorar nuestro uso del lenguaje.

¿Quién será el vencedor de esa dualidad?


Conclusiones


Sin embargo, vamos a finalizar de manera optimista, recordando y destacando cómo el empleo de los grandes modelos de lenguaje o las aplicaciones que los recubren nos exigen dos competencias valiosas: conocer el dominio del problema y usar correctamente y de forma precisa el lenguaje.

Alegrémonos de ello y desarrollemos esas competencias.


miércoles, 5 de noviembre de 2025

Las tres H para el alineamiento de un modelo de lenguaje con los valores humanos

Pese a su potencia y sofisticación, lo cierto es que, visto como comportamiento externo, un gran modelo de lenguaje, presenta un funcionamiento externo relativamente simple y que debe complementarse por otros elementos para conseguir los impresionantes resultados que observamos 'desde fuera'.


La misión original de un gran modelo de lenguaje


En efecto, la función principal de un modelo de lenguaje (tanto un gran modelo de lenguaje como uno más sencillo y primitivo) es, fundamentalmente, proporcionar el siguiente elemento de texto (el siguiente token aunque, simplificando, podemos pensar en la siguiente palabra) que sigue al elemento de entrada.

Haciendo eso de forma recursiva, lo que suele hacer un modelo de lenguaje es, a partir de la parte inicial de un documento (un texto) generar el texto más probable que completa la entrada. Es lo que se suele denominar 'text completion'.

Así lo explica muy claramente el libro 'Prompt Engineering for LLMs: The Art and Science of Building Large Language Model–Based Applications' de John Berryman y Albert Ziegler que me encuentro leyendo estos días.


El salto a una aplicación basada en un modelo de lenguaje


Y el mismo libro también explica algo que suelo recordar en clases sobre 'prompting', a saber: que cuando uno utiliza un chatbot del tipo de ChatGPT, Copilot o Gemini, no estamos interactuando directamente con un modelo de lenguaje, sino con una aplicación, que si, se apoya en un gran modelo de lenguaje, cuyo componente principal es un gran componente de lenguaje, pero que ese modelo se encuentra rodeado por una serie de módulos y mecanismos adicionales que extienden, completan y matizan su funcionamiento.

Esto es lo que se denomina una aplicación basada en IA o aplicación basada en LLM. Entre estas aplicaciones basadas en un modelo de lenguaje, podemos encontrarnos todo tipo de soluciones, pero las más populares y conocidas son, en efecto, los chatbots que actúan como una especie de ayudante (copiloto que dirían en Microsoft) de un humano: el usuario.


El alineamiento con los valores humanos: las 3 H


De cara a dar ese salto de un 'simple' modelo de lenguaje ejecutando una y otra vez en 'text completion', a un verdadero chatbot que actúe como asistente, Antrophic, a través del whitepaper 'A General Language Assistant as a Laboratory for Alignment' propone conseguir tres objetivos, que son las 'tres H'. Estas Hs son:


  • 'Helpful' (útil): Significa que la aplicación debe intentar realizar la tarea que se le pide o contestar a la pregunta que se le formulaa, y hacerlo de la forma más concisa y eficiente posible. Si en esa labor necesita más información, deberá realizar las preguntas oportunas y, finalmente, si es incapaz de dar una respuesta adecuada, debería sugerir otro curso de acción.

  • 'Honest' (honesto): la solución debe proporcionar información precisa y, además, asignarle una estimación de precisión o incertidumbre. Aparte de eso, la solución debería comportarse honestamente respecto a sus propias capacidades, niveles de conocimiento y estado interno.

  • 'Harmless' (no dañino): La solución no debería ser ni ofensiva ni discriminatoria. Además, debería rechazar cortesmente participar en una actividad peligrosa y también debería actuar con prudencia a la hora de proporcionar información sensible o consejos delicados.


Aunque muy razonables estas tres características, llama la atención cómo se expresan en términos muy humanos. Pero lo cierto es que, aunque no de manera perfecta, aunque por desgracia no sin fallos, no cuesta reconocer que, en efecto, los chatbots basados en grandes modelos de lenguaje tienden a exhibir esas tres H.

Y, en ese empeño, no sólo generan una mayor confianza en ellos mismos, sino que además, se convierten, en efecto, en ayudantes eficaces de los humanos.

En buena medida, los comportamientos más peligrosos, los fallos más graves, suelen proceder, precisamente, de no haber conseguido en algún momento, exhibir esas tres H.


Conclusión


Los modelos de lenguaje pese a su potencia, por sí solos no consstituyen una verdadera solución final para un usuario.

Para conseguir construir una solución final basada en LLM, es necesario añadir funcionalidad y, en ese proceso, y cuando pensamos en un chatbot ayudante de un humano, las tres características, útil, honesto y no dañino, le confieren un comportamiento más confiable, más efectivo y más ético.


lunes, 3 de noviembre de 2025

La Iglesia y el diálogo ético sobre inteligencia artificial: una experiencia, unas lágrimas y un mensaje

Esta semana he tenido una experiencia muy interesante, una experiencia que me ha hecho reflexionar sobre el punto en que nos encontramos en cuanto al diálogo ético sobre inteligencia artificial, ese necesario debate y análisis que debe producir los criterios que luego se trasladan a regulaciones, mecanismos de gobernanza o comportamientos.

En seguida comento la experiencia, pero antes quisiera introducir o repasar algunas ideas.


La ética de la inteligencia artificial


Desde hace ya unos cuantos años, el debate sobre la ética de la inteligencia artificial está presente entre nosotros. Pero no se trata sólo de que se haya convertido, simplemente, en un tema 'de moda', que lo ha hecho, o de algo de lo que se habla simplemente...porque es de lo que habla todo el mundo, cosa que también sucede. No, además, de eso, y más allá de modas y superficialidades, también ha conducido a resultados prácticos, tangibles y que seguramente debemos celebrar.

Así, ha dado lugar el desarrollo de técnicas y soluciones para, por ejemplo, detectar sesgos, para proteger la privacidad, etc.

También ha hecho que fabricantes, como por ejemplo, OpenAI en su ChatGPT, incluyan protecciones (los famosos 'guardrails') para evitar que su producto estrella produzca resultados inadecuados (en lo ético, me refiero, aunque se pueden usar para conseguir más objetivos). 

Igualmente ha llevado a regulaciones, como el famoso Reglamento de la Inteligencia Artificial de la Unión Europea. Incluso, algunas empresas han adoptado esquemas de gobierno bajo la filosofía de 'ética por diseño' buscando crear unos procesos de producción de soluciones de inteligencia artificial que aplican criterios y filtros éticos en todo el ciclo de vida.


El diálogo ético

.

En el origen de algunos de estos resultados, se encuentra un diálogo, un debate y un análisis previo. Así, y a modo de ejemplo, unos años antes de aprobar el Reglamento de la Inteligencia Artificial, la Unión Europea ya había reunido a un grupo de expertos para producir un primer resultado fruto del diálogo ético: las "Directrices éticas para una IA fiable".

Sin embargo, creo que el diálogo ético ha sido insuficiente o, quizá, por mejor decirlo, debería continuar y ampliarse. ¿Por qué? Pues porque todavía quedan debates éticos sin resolver y, lo que sobre todo quiero traer a colación en este post, porque hay actores importantes que no han participado aún en ese diálogo.


Problemas éticos sin resolver


Queda todavía muchísimo camino por recorrer, por supuesto, en materia de resolver problemáticas éticas como la privacidad o los sesgos. Sin embargo, en la mayoría de las problemáticas digamos 'clásicas' de la inteligencia artificial, como las dos mencionadas, y si nos circunscribimos al ámbito occidental, fundamentalmente Europa, el debate ético está cerrado: sabemos qué valores queremos proteger y sabemos lo que consideramos correcto e incorrecto desde un punto de vista ético (otra cosa es la implantación de esos criterios en lo regulatorio o en la aplicación práctica por parte de empresas, administraciones y usuarios). Pero, insisto, desde un punto de vista de debate ético, creo que lo podemos considerar casi cerrado.

Pero en la inteligencia artificial, y en lo que voy a mencionar, en la robótica, existen una serie importante de debates éticos que no creo resueltos. Debates relacionados en buena medida con nuestra relación con las máquinas, en la dependencia de ellas o en el establecimiento de relaciones afectivas con robots o chatbots.

Se trata de problemas complejos desde todos los puntos de vista y no existe, creo, ni el suficiente debate, ni el suficiente consenso ético. 

Y ese es uno de los motivos por lo que el diálogo ético debe continuar y se debe profundizar en él.


La experiencia: jornadas sobre la relación de la teología y la IA


Al comenzar este post mencionaba una experiencia interesante. Bueno, pues la experiencia es que fui invitado por la Universidad Pontificia de Salamanca a participar como ponente dentro del marco de las LVII Jornadas de Teología, que este año exploraban el tema: "IA y teología: una relación a construir".

Confieso que recibí con ilusión, pero también con mucho respeto, la invitación. Aunque estoy acostumbrado a hablar (e impartir docencia) sobre ética de la inteligencia artificial, el escenario, y el público, eran muy diferentes: en este caso hablamos de unas jornadas de teología, donde el público estaba compuesto mayormente por sacerdotes, muchos de ellos profesores de campos como teología o antropología, y seminaristas. Y, además, examinado del currículum de otros ponentes, veía que predominaban altas autoridades de la iglesia y/o catedráticos.

Desde luego, un público y un contexto muy diferentes a los que frecuento.


El escenario: aula magna de la Universidad Pontificia de Salamanca

Y el escenario, precioso, también era impresionante: el aula magna de la Universidad Pontificia.


Conocer el terreno


Es importante en cualquier circunstancia conocer el terreno que pisas. Considero para mí un deber, y también sucedió en este caso, informarme sobre el contexto en que me movía. En realidad es algo que hago siempre antes casi de cualquier presentación o de impartición de una clase o materia sobre un tema que no frecuento.

En este caso, por ejemplo, me leí dos libros de teología. El primero 'Iniciación a la teología', cortito pero, en mi opinión, demasiado abstracto y alambicado para constituir una verdadera iniciación. El segundo, 'Esta es nuestra fe: teología para los que no frecuentan la teología', este sí, llano, fresco, sencillo y agradable de leer y que sí que recomiendo a cualquiera interesado en informarse sobre la teología cristiana, sea creyente o no.

Más importante que eso, me leí también el documento 'Antiqua et Nova', que creo que es la mayor reflexión hasta la fecha publicada por la Iglesia católica en materia de inteligencia artificial y que, de hecho, se presentó en las jornadas y se citó abundantemente.

E, incluso, un artículo cuyo conocimiento debo a Javier Barraca,  publicado en La Razón, el día antes de inicio de las jornadas y en que se informaba de que el papa León XIV había publicado una carta apostólica, titulada "Diseñar nuevos mapas de esperanza" y que, en el contexto de la educación, menciona la tecnología y la inteligencia artificial.


Mi planteamiento


En mi ponencia, que tenía que ser corta, introducía muy rápidamente ideas sobre la tecnología y su papel en el progreso y unas muy breves pinceladas sobre lo que es la inteligencia artificial y qué puede hacer.

De ahí saltaba a identificar los problemas éticos más conocidos de la inteligencia artificial, problemas sobre los que, como he indicado más arriba, tenemos razonablemente claro lo que es correcto y lo que no.

Y luego pasaba a algo que me apasiona, a lo que he dedicado mucho tiempo de lectura e investigación en los últimos años y a lo que dedico una parte importante de mi tiempo en  OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial): las relaciones con las máquinas (especialmente con los robots) y todo lo que tiene que ver con las implicaciones emocionales. Un ámbito, precioso y retador en lo intelectual, pero donde no existe ese consenso sobre los criterios éticos, quizá porque todavía no hemos asimilado el fenómeno.

Y luego venía lo que, en mi opinión, era lo mejor y más importante: el papel de la ética en todo esto, contestar a la pregunta de si debemos humanizar a las máquinas o robotizar a las personas (ese era el título de la mesa en que yo participaba) y, sobre todo, sobre todo, muy sobre todo, el papel y la implicación, siempre en mi opinión, de la teología e iglesia cristianas en esta materia. 


Cuando el tiempo no es lo importante


Pero ahí se produjo un borrón, el único en un par de días que en todo lo demás fueron extraordinarios: mi ponencia fue interrumpida bruscamente, lejos de haberla culminado y sin poder enviar los mensajes más importantes.

En una acción que considero equivocada, el moderador, obsesionado por el tiempo, y mucho más pendiente del reloj que del mensaje y del verdadero avance de la mesa, no me permitió continuar más que dos brevísimos minutos.

Confieso que yo sabía que me iba a pasar de tiempo. No en vano ya había ensayado varias veces la presentación, la última esa misma mañana y dos veces más la noche anterior, y sabía que me iba a exceder en unos minutos (entre cinco y diez). 

Pero en esa noche anterior había decidido que si, que intentaría no adornarme para ir directo al grano e intentar no sobrepasar demasiado el tiempo asignado pero no, no iba a recortar nada como era mi plan inicial. Al fin y al cabo contaba también con el colchón de minutos del tiempo de preguntas y del tiempo de descanso.

Y decidí no recortarla porque, tras escuchar durante toda la primera jornada las exposiciones de los ponentes, y quizá más aún, las preguntas de los asistentes, sentí que era muy importante que les contase todo lo que traía conmigo: necesitaba que entendieran, de verdad, qué es y qué puede hacer realmente la inteligencia artificial, en qué punto estamos a nivel ético fuera del entorno católico y, sobre todo, sobre todo, lanzarles unos mensajes, en gran medida motivadores, pero también con deberes claros y muy necesarios.


Lágrimas en la lluvia


Me resulta difícil explicar la frustración y el desconsuelo que arrastro desde ese día por no haber podido culminar la presentación. No se trata sólo del desperdicio de las muchas horas que dediqué a la ponencia, en realidad eso es lo de menos, se trata de algo mucho más importante.

Se trata de que era una ocasión y un escenario únicos para un mensaje en mi opinión necesario y potente y que, además, estaba completamente personalizado para el público asistente.

Como decía más arriba, no son unas jornadas de teología mi territorio habitual y nunca hasta ahora me había dirigido a un público de sacerdotes católicos. Y como no es mi territorio natural. es muy difícil que vuelva a estar en una situación similar y que pueda lanzar el mensaje que traís. Así que como dice la famosa frase de 'Blade Runner":


todos esos momentos se perderán, como lágrimas en la lluvia


Más que momentos, en este caso se perderán, mensajes, ideas, por los que, metafóricamente, quizá valga la pena llorar para añadir más caudal a la lluvia.


La necesidad de ampliar el diálogo ético


Hecho ese dolido apunte, rescato una parte, sólo una pequeña parte, de lo que tenía en mente y de alguna forma explicitaba en ese mensaje final perdido: la necesidad del diálogo ético, y la necesidad de incorporar a actores que no han estado presentes en el diálogo ético hasta ahora, en este caso, la Iglesia católica.

Al parecer, y bajo el impulso del Papa León XIV, la Iglesia católica está reflexionando y va a reflexionar más, sobre la inteligencia artificial y, como ya ha hecho en la 'Antiqua et nova', entiendo que emitirá nuevos juicios y criterios en forma de cartas apostólicas, encíclicas o discursos papales.

Pero lo cierto es que hasta ahora ha estado bastante ausente o esa es mi percepción. No participó, por ejemplo, hasta donde yo sé, en la redacción de las guías éticas que precedieron al Reglamento de Inteligencia Artificial de la Unión Europea.

Como tampoco, hasta donde se me alcanza, han estado presentes otras iglesias o religiones: ni protestantes, ni judías, ni islámicas, siempre que yo sepa.

Y me pregunto, porque en este momento no se me ocurre, qué otros actores relevantes pueden haber  quedado fuera hasta ahora en el diálogo y debate ético sobre inteligencia artificial.

 

El mensaje


El mensaje iba mucho más allá, pero al menos quiero dejar esa idea de la incorporación al diálogo ético de la Iglesia católica y, en general, de las religiones.

Aunque mi verdadero mensaje, en su completitud e integridad se ha perdido en gran medida. no pude resistir la tentación, el Viernes, al día siguiente de finalizadas las jornadas, de publicar en mis redes un vídeo con la presentación completa, lo que se vio, y lo que no se vio.

Es éste:


No, pese a que se pueden ver todas las trasparencias, no se puede más que intuir el mensaje, el mensaje íntegro, porque eran muy importantes las palabras con que pensaba acompañar las trasparencias finales, unas palabras que, como lágrimas, se han confundido ya con la lluvia.


Conclusiones


Aunque llevamos varios años con un intenso debate ético en torno a la inteligencia artificial y aunque a lo largo de esos años tenemos resultados tangibles en forma de propuestas, regulaciones, modelos de gobernanza y tecnologías, lo cierto es que el debate ético no ha finalizado.

No ha finalizado porque quedan cuestiones sin resolver, o al menos sin consensuar, y porque nos han faltado actores relevantes en ese debate, siendo las religiones, y en concreto la Iglesia católica, uno de ellos.