miércoles, 12 de marzo de 2025

Grandes modelos de lenguaje y el derecho al olvido

Uno de los derechos de que se habla mucho en el mundo digital, con frecuencia ligado a los aspectos de privacidad, es el del derecho al olvido.

Este derecho, se podría ver comprometido, de una forma quizá insospechada, por la existencia y el uso de los grandes modelos de lenguaje o de los modelos fundacionales en general.

Antes de abordar el problema, dos breves incisos: uno para comentar en qué consiste eso del 'derecho al olvido' y otro para recordar brevemente cómo se produce el entrenamiento de los grandes modelos de lenguaje (LLM, 'Large Language Models').


El derecho al olvido


No soy jurista, así que no pretendo aportar una definición rigurosa, sólo introducir la idea por si algún lector no estuviese familiarizado con ella. Solicito ayuda a ChatGPT y obtengo una explicación que me parece perfectamente ajustada a lo que quería explicar. Me dice:


El derecho al olvido es un concepto legal y de privacidad que permite a las personas solicitar la eliminación de información personal de los motores de búsqueda, bases de datos y otras fuentes digitales cuando dicha información ya no es relevante, es inexacta o afecta negativamente su reputación. Se origina en el derecho a la protección de datos personales y la privacidad.


En efecto, esa es la idea: debido a nuestra interacción con los medios digitales, y muy especialmente, aunque no únicamente, con redes sociales, existe o puede existir una gran información en la red sobre nosotros, en muchos casos mucha información que hemos aportado voluntariamente y, en ciertos casos, una información que incluye datos personales o que posibilita la identificación.

En cualquier caso, incluso en el caso de información no personal, es posible que, en un momento dado prefiramos que esa información deje de estar en la red. El derecho al olvido, en buena medida, creo, apoyado en el caso europeo en el RGPD (Reglamento General de Protección de Datos), pretende proteger ese derecho a la eliminación de datos.

Desde un punto de vista legal, al menos hasta donde se me alcanza, lo que protege el RGPD y, por tanto, el 'verdadero derecho al olvido' que tenemos, al menos los ciudadanos europeos, se enfoca a los datos sensibles y de carácter personal. No tengo tan claro, lo reconozco, el derecho a eliminar otro tipo de contenidos como un artículo, un post, un tuit, etc.


El entrenamiento de los grandes modelos de lenguaje


Hagamos otro alto en el camino para hablar brevemente y de forma algo superficial de cómo se hace el entrenamiento de los grandes modelos de lenguaje.

En los grandes modelos de lenguaje actuales, lo que entrenamos son unas redes neuronales complejas. El entrenamiento se refleja, fundamentalmente, en el ajuste de los pesos de la red neuronal. Con base en los ajustes de esos pesos, los modelos aprenden a codificar los textos como unos vectores (los famosos 'embeddings') que albergan cierto contenido semántico; aprenden también, de alguna manera la estructura del lenguaje humano (su sintaxis y morfología); y aprenden, finalmente, y de alguna manera, una gran cantidad de conocimiento de todo tipo recogido en texto, en lenguaje.

Para eso se basan en la lectura y, en cierto sentido, 'digestión, de una ingente cantidad de texto contenido en libros, páginas web etc. En esa digestión es en lo que, metafóricamente, consiste el entrenamiento.

Es importante entender, aunque no es fácil del todo de imaginar que, aunque estos modelos, aprenden de alguna manera, no tienen para nada los conceptos simbólicos, lógicos, causales, etc que tenemos los humanos y que asociamos al conocimiento y cuya adquisición asociamos al aprendizaje. En el caso de los grandes modelos de lenguaje, de los modelos fundacionales en general, hablamos de modelos altamente probabilistas, donde el conocimiento como los entendemos los humanos, está implícito, diluido, recogido en unos pesos y unos parámetros que sólo muy indirectamente, aunque de una forma muy eficaz, tienen que ver con un verdadero conocimiento.

Aunque es 'invento mío' esta idea del 'conocimiento diluido' es importante tenerlo claro: en un gran modelo de lenguaje no hay una base de datos, o un repositorio de conocimiento donde podamos encontrar elementos de conocimiento, ni mucho menos la fuente de donde se obtuvo ese conocimiento.


La dificultad para olvidar


Esa 'dilución, que insisto que es una forma de expresarlo que me acabo de inventar para escribir este post, explica la dificultad para olvidar que presentan estos modelos de lenguaje. 

En efecto, no hay un mecanismo sencillo, probablemente ni siquiera viable, para pedirle a un gran modelo de lenguaje que elimine datos concretos, conocimientos concretos, de su 'acervo de conocimiento'. No existe ese mecanismo, o no es sencillo, porque ese conocimiento, porque los datos, porque la información factual están diluidos en el modelo. No están en ningún sitio concreto. No hay un elemento concreto, un registro de una base de datos, un link, un documento... no hay un soporte concreto para un dato o para un conocimiento sino que éste se encuentra diluido en el modelo. Y por ello es muy difícil actuar sobre él.

Esta idea está recogida de alguna forma en el último libro de Chip Huyen titulado, 'AI Engineering: Building Applications with Foundation Models', y donde, en un momento dado, nos explica:


Imagine you published a blog post that you eventually deleted. If that blog post was included in a model’s training data, the model might still reproduce the post’s content. As a result, people could potentially access removed content without your consent.


No habla explícitamente de derecho al olvido, y no se centra en datos personales sino en un artículo de un blog, pero el mensaje es el mismo.

En tecnología, especialmente en el campo del software, casi todo es posible. Supongo que, de la misma forma que chatbots basados en modelos fundacionales como ChatGPT rodean a su modelo de los famosos 'guardrails' para intentar garantizar la eliminación de lenguaje ofensivo o respuestas poco éticas, alguna forma de superposición, de protección de datos podría hacerse también orientada a posibilitar el olvido. Pero esa superposición intuyo que, caso de ser posible, sería compleja, escalaría mal, en ocasiones fallaría, penalizaría las prestaciones y, en definitiva, sería muy costosa y muy poco práctica.

Así que, siempre con la esperanza de que los ingenieros que trabajan en estos modelos puedan 'inventar' algo práctico, de momento tenemos que pensar que en aplicaciones basadas en grandes modelos de lenguaje, el derecho al olvido es muy difícil, casi imposible, de garantizar en estos momentos.


Conclusiones


La conclusión está clara: en estos momentos, garantizar el derecho al olvido cuando la información que se quiere 'olvidar' ha sido utilizada en el entrenamiento de un gran modelo de lenguaje, es una tarea muy difícil, probablemente imposible. 

Un motivo buen para revisar cómo se entrenan estos modelos y también un acicate para que, como ciudadanos individuales, seamos lo más cuidadosos y responsables posible con los datos que volcamos en la red.


lunes, 10 de marzo de 2025

Modelos fundacionales versus modelos tradicionales de machine learning

La existencia de los modelos generativos, tanto modelos de lenguaje como modelos multimodales, están cambiando, o más bien añadiendo, nuevas perspectivas al trabajo con inteligencia artificial y, en este caso, estoy pensando en la aplicación de la inteligencia artificial en empresas u organizaciones concretas, y no tanto en el desarrollo general de algoritmos o modelos.


Trabajo 'tradicional' con machine learning


Hasta hace aproximadamente dos o tres años, cuando se produjo la explosión de la inteligencia artificial generativa creo que, aunque sea de manera sin duda simplificada, podríamos decir que había (y hay todavía, claro) dos formas de construir soluciones basadas en inteligencia artificial o adaptar la inteligencia artificial a empresas y organizaciones concretas:


  • La primera trataba de construir modelos de machine learning para el análisis y la predicción con datos de la empresa. Los algoritmos como tal están definidos pero la adaptación, el entrenamiento para los datos de la empresa u organización se realiza localmente. Es la forma de trabajar fundamentalmente en analítica inteligente y en la construcción de modelos predictivos, por ejemplo. 

  • Reutilización de capacidades ya funcionales de inteligencia artificial: se trataría de utilizar, sin modificar, modelos o capacidades basadas en inteligencia artificial para construir soluciones apoyadas en ellas pero sin modificarlas. Es la forma de trabajar fundamentalmente en automatización inteligente. Así, los robots industriales, por ejemplo, utilizan capacidades de visión artificial, los robots RPA ('Robotic Process Automation') utilizan capacidades de reconocimiento óptico de caracteres (OCR, 'Optical Character Recognition') o de entendimiento de lenguaje natural, y los chatbots tradicionales utilizan también capacidades de entendimiento de lenguaje natural y de reconocimiento y generación de voz. 


Por supuesto que es una forma de resumirlo bastante simplificada pero creo que sí representa las formas de trabajo mayoritarias y muchos de los que trabajan con inteligencia artificial se verán reflejados en ellas.  


Trabajo con modelos fundacionales


Aunque las formas anteriores de trabajo siguen siendo de actualidad, la aparición de los modelos generativos, digamos los modelos fundacionales, introducen cambios y novedades.

Por una parte, ponen al alcance de usuarios 'normales' sin especialización técnica ni mucho menos en inteligencia artificial, hacer uso de capacidades avanzadas para multitud de tareas, sin más que usar las herramientas, sobre todo las tipo chatbot como ChatGPT, y donde gana importancia la habilidad del usuario para formular las preguntas o peticiones de la mejor forma posible usando las técnicas recogidas bajo el concepto de 'prompt engineering'. Incluso, se añaden cada vez más, capacidades para que el usuario se haga pequeñas automatizaciones como las Tareas de ChatGPT.

Además de eso, y de nuevo al alcance de cualquier usuario, cada vez más y más herramientas ofimáticas, como Office 365 o herramientas de videoconferencia como Zoom o Teams, o herramientas de desarrollo y así un largo y creciente etcétera, incluyen capacidades y asistentes basados en inteligencia artificial.

A nivel ya de grupos de desarrollo en gran medida las aplicaciones en torno a los modelos fundacionales se construyen tomando un modelo ya existente y que resulte adecuado y se intenta personalizar el modelo, si es necesario, y usarlo de la mejor forma posible. En el camino de la personalización se dispone de los mecanismos como el fine tunning o el uso de RAG ('Retrieval Augmented Generation').

Y, finalmente, se abre el camino de los agentes que, sin embargo y pese a ser una idea novedosa, recuerda mucho, como ya comenté en el post 'La hibridación de los robots software: agentes frente a RPA y robots conversacionales', a la forma en que se ha trabajado hasta la fecha en RPA o en agentes conversacionales.


Una caracterización de lo diferencial del trabajo con modelos fundacionales


Si yo tuviera que hacer una caracterización rápida de las principales diferencias que traen consigo los modelos fundacionales, diría, a bote pronto, lo siguiente:


  • La posibilidad de cambiar de manera notable el comportamiento, simplemente, mediante instrucciones en lenguaje natural ('prompt engineering'), en lugar de hacerlo mediante instrucciones en un lenguaje de programación o reglas formales de algún tipo.

  • La generalidad de los modelos subyacentes (que por ello llamamos fundacionales) y que valen para multitud de tareas diferentes y la facilidad para usar modelos de una altísima potencia

  • La naturaleza 'no exacta' ni cien por cien previsible del resultado que producen lo que que lleva a tener que tomar precauciones cuando se utilicen en automatización industrial o de procesos por ejemplo, o cuando la eficiencia sea clave, o en el caso tareas críticas donde 'no se puede fallar' y donde no se admiten sorpresas.


Las tres diferencias según Chip Huyen


Leyendo el último libro de Chip Huyen titulado, 'AI Engineering: Building Applications with Foundation Models', me encuentro con que Huyen, autora también de un fantástico libro sobre machine learning, 'Designing Machine Learning Systems', y un poco, creo, comparando con lo que ella misma había escrito, identifica tres diferencias fundamentales entre el trabajo con modelos de machine learning, digamos tradicionales (objeto de su libro anterior), y la creación de soluciones con modelos fundacionales (objeto de su último libro). Ella destaca las tres siguientes diferencias:


  • En el machine learning 'tradicional', tú tienes que entrenar tu propio modelo, mientras que en trabajando con modelos fundacionales se usa un modelo que ya ha sido entrenado (o, al menos, añado yo, pre-entrenado)

  • Al trabajar con modelos fundacionales se trabaja con modelos mayores, que consumen más recursos y presentan una mayor latencia. Eso pone más presión en la optimización tanto del entrenamiento como de la inferencia y la necesidad de personal especializado en el uso de GPUs y grandes clústers.

  • Los modelos fundacionales generan respuestas abiertas lo cual les confiere flexibilidad pero también mayor dificultad de evaluación.


La autora resumen esas tres diferencias en el hecho de que, en el machine learning tradicional el foco está en el desarrollo de modelos, mientras que en desarrollo basado en modelos fundacionales (lo que ella llama ingeniería de IA) el foco está en la adaptación y evaluación de modelos existentes.


Conclusiones


El trabajo con modelos fundacionales lleva a una forma diferente de trabajo en el campo de la inteligencia artificial. Una forma que, al menos por el momento, no sustituye a la anterior, pero que sí introduce nuevos métodos y técnicas de trabajo y donde el foco está más en el mejor uso de modelos existentes y su explotación mediante un buen 'prompting', 'fine tunning' o RAG y en una algo más difícil evaluación del desempeño de eso modelos.


lunes, 3 de marzo de 2025

Tres factores para un rápido crecimiento de las soluciones de inteligencia artificial

La amplia disponibilidad de grandes modelos generativos, típicamente grandes modelos de lenguaje, así su cada vez mejor comportamiento, permite la construcción relativamente sencilla de potentes aplicaciones  de inteligencia artificial, incluyendo, por supuesto, los tan 'traídos y llevados' agentes.

Eso es a lo que hay quien ha decidido denominar, como veremos en seguida, ingeniería de inteligencia artificial.

Veamos un poco en qué consiste y a desmenuzar un poquito más, sólo un poquito más, del porqué de su rápido crecimiento actual y más que probable en el futuro.


El concepto de ingeniería de inteligencia artificial


Este concepto de ingeniería de inteligencia artificial ('AI engineering'), o este nombre, más bien, no es de uso común, al menos no hasta el momento, pero es el que adopta una autora tan relevante de este campo como es Chip Huyen en su último libro, 'AI Engineering: Building Applications with Foundation Models', al que, de hecho da título.

Bajo a este nombre, que la propia autora explica que le costó elegir y sólo lo hizo siguiendo las opiniones de terceros, lo que se designa es la construcción de aplicaciones de inteligencia artificial con base en grandes modelos de lenguaje (LLM, 'Large Language Models') o, quizá mejor, grandes modelos multimodales (LMM, 'Large Multimodal Models') o, aún mejor, modelos fundacionales ('foundation models'),  ya existentes .

Nada más y nada menos que eso.

En las primeras paginas de este libro, la autora identifica tres factores que en seguida veremos que posibilitan el rápido crecimiento de este tipo de soluciones.


Modelos como servicio


Antes, mencionar siguiera de pasada, una idea que expresa la autora y que quiero resaltar más por su importancia que por su originalidad, que es el de los modelos como servicio, que podríamos expresar como el típico acrónico MaaS ('Model as a Service'), siguiendo la práctica habitual en el mundo cloud.

En efecto, con los grandes modelos generativos se sigue aplicando, quizá aún con más fuerza y relevancia, el planteamiento 'as a Service' (aaS) del mundo cloud. Si ya la tendencia a prestar servicios y capacidades IT de todo tipo desde la nube es una tendencia o, más bien, una realidad imparable, este planteamiento tiene aún mucho más sentido en el caso de los grandes modelos generativos.

El MaaS lo que significa es que cuando una empresa o un particular desea usar un modelo, no desarrolla su propio modelo desde cero lo cual, por las necesidades de hardware, de computación y de 'know-how', estaría al alcance de muy pocas organizaciones. Bien al contrario, lo habitual es usar un modelo ya existente y, aunque es posible en algunos casos la descarga en local, con mucha frecuencia se usan esos modelos desde la nube y se paga por su uso.

Así ocurre cuando usamos APIs como la de OpenAI o los modelos abiertos que nos  ofrece Hugging Faces.

Esta disponibilidad de los modelos y su cada vez más fácil uso mediante APIs sencillas o entornos de desarrollo elimina en gran medida la dificultad, las denominadas barreras de entrada. Con ello, la situación es como nos indica la propia autora


the demand for AI applications has increased while the barrier to entry for building AI applications has decreased.


es decir, tenemos una cada vez mayor demanda de soluciones de inteligencia artificial, unida a una cada vez mayor facilidad para construirlas.


Los tres factores


En parte como consecuencia de lo anterior, junto con algún elemento adicional, llegamos a los tres grandes factores que Huyen identifica como las condiciones ideales para el crecimiento de este tipo de soluciones, y que serían:


  • Factor 1 - Capacidades IA de propósito general: Dado que los modelos fundacionales no sólo funcionan cada vez mejor, sino que son capaces de realizar una grandísima variedad de tareas, de ahí en parte su nombre, en el fondo.

  • Factor 2 - Mayores inversiones en IA: Superados en apariencia todos los inviernos, la nueva inteligencia artificial, que claramente ha demostrado su capacidad para proporcionar soluciones reales, recibe abundantes inversiones tanto de organizaciones de capital-riesgo como de empresas. Y eso supone, evidentemente, un impulso adicional, casi definitivo.

  • Factor 3 - Baja barrera de entrada: que entronca con lo que hemos visto en la sección anterior, la disponibilidad de modelos, su posibilidad de contrato como servicio y su facilidad de uso incluyendo en muchas ocasiones la necesidad de una cantidad mínima de codificación.


No sé si se podría identificar algún factor más, pero claramente estoy de acuerdo con los aportados por Huyen.


Conclusiones


Estamos ante un momento casi dorado para el rápido crecimiento de soluciones de inteligencia artificial con base en modelos generativos fundacionales. Y según Chip Huyen los tres factores que crean un entorno ideal para el crecimiento de este tipo de soluciones son su generalidad, la recepción de inversiones y la facilidad de uso.


viernes, 28 de febrero de 2025

OdiseIA4Good: un hackathon y ocho reflexiones

Ayer culminó el 'I Hackathon internacional de IA para colectivos vulnerables' organizado por OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), organización a la que pertenezco desde hace, creo, cinco años. Y un evento en que participe, fundamentalmente dando soporte a algunos de los equipos que participaban, en un rol que la organización definió como 'supermentor'.

Un evento del que no había hablado en este blog aunque sí había dejado rastro en algunos de mis otros canales digitales.

El hackathon en total duró casi tres semanas, pues hubo dos semanas previas de fase online, un poco de calentamiento, pero la parte nuclear, la fase presencial, tuvo lugar los días 25, 26 y 27 de Febrero.

En este post quiero recoger algunas impresiones y reflexiones personales sobre el evento. Decir que, aunque pertenezco a OdiseIA y he colaborado en el evento, son reflexiones absolutamente personales. 


El esfuerzo de organización


La primera impresión, quizá la de índole más práctica, es la que tiene que ver con el tremendo esfuerzo de organización que supone montar un evento así. No he estado involucrado en la organización propiamente dicha salvo para echar una mano en temas puntuales porque mi rol era otro, pero al estar muy cerca de la organización y conocer bien a quienes se encargaban de ella, he podido observar bastante de cerca la gestión, la organización, la logística e incluso la necesidad de reaccionar ante los siempre presentes imprevistos.

Y, hasta donde lo he percibido, he podido comprobar cómo organizar un evento de esta naturaleza, es un esfuerzo de gestión fenomenal (y la palabra esfuerzo es muy adecuada) con mil y un aristas, mil y un detalles, mil cosas que pensar, organizar o resolver, y todo ello bien orquestado para que las cosas se hagan o sucedan en el modo y momento en que tiene que ser. Hay mucha, muchísima gestión, y también mucho esfuerzo y mucha voluntad y dedicación para salvar todo aquello que la mera organización no puede prever.

Realmente, hasta la fecha, OdiseIA no había acometido una iniciativa de esta envergadura y, aunque siempre hay puntos de mejora (tengo en mi cuaderno mental alguna propuesta), creo que el reto, y ahora me refiero no al social, sino al organizativo, se ha superado con muy buena nota. 


El atractivo de la IA responsable


Algo muy reconfortante es comprobar cómo la inteligencia artificial responsable, y cómo su aplicación social, y en este caso para colectivos vulnerables, son temas que resultan atractivos. La respuesta en número de 'hackers' y equipos ha sido muy alta y no ha dejado de sorprenderme cosas como que haya participado, bien que en modalidad online, alguna persona de lugares tan remotos como Sri Lanka (todavía no me explico cómo tuvo noticias del hackathon), que bastantes hackers con residencia fuera de Madrid se hayan desplazado a la capital para estar tres días dedicados al hackathon o que en el evento de cierre de ayer, lo que se denominó el congreso, también asistiera como espectador alguna persona venida de fuera de Madrid expresamente para el acto.

Desde luego, OdiseIA organizó un evento muy atractivo, pero también creo que existe un atractivo intrínseco, no sólo de la inteligencia artificial como tecnología o como negocio, que es casi evidente, sino también del uso ético y de su aplicación social.

Y ese interés es muy esperanzador.


El impacto social


Hay otro gran motivo de esperanza. Muchos de los proyectos que han salido de este hackathon o que se han impulsado durante el mismo, tienen, por supuesto, una clarísima vocación social pero es que, además, son, no tengo ninguna duda, perfectamente viables e implantables.

Me tocó 'supermentorizar' dos proyectos de estos que son maduros, de alto impacto e implantables. Uno de ellos es un proyecto espectacular, casi diría una línea de trabajo, de la Universidad Complutense, que aplican inteligencia artificial para distintos elementos relacionados con el agua, como su detección o el análisis de potabilidad. Y todo ello con el propósito, en primera instancia, de desplegarlo de la forma más masiva posible en Etiopía, aunque es aplicable en cualquier lugar, especialmente afectada por sequía y escasez de agua.

También me tocó en suerte, 'supermentorizar' un equipo y un proyecto, que a la postre fue el ganador del Hackathon, que trabaja en el campo de la accesibilidad web y que dispe de un plugin que analiza el texto de una web y lo traduce a lenguaje sencillo en primera instancia y lo que se denomina en accesibilidad, 'lectura fácil (no es lo mismo aunque lo parezca). Y lo demostraban sobre páginas de la administración pública, creo recordar que de la agencia tributaria, aunque de este último extremo no estoy seguro. El último día por la mañana me acerqué a su mesa a ver si me podían hacer una 'demo' informal. Tras acabar de verlo les dije que en mi opinión eso era implantable ya. Que tenía mercado. Que, mas allá del hackathon 'había que moverlo'. El jurado debe haber pensado algo parecido desde el momento que obtuvieron el primer premio.

Estos son los casos que conozco más, pero seguro que muchas de las soluciones creadas o evolucionadas en el hackathon tienen posibilidades reales de implantación y, por tanto, posibilidades reales de tener impacto social.  

De hecho, los premios (en realidad había muchos y diferentes tipos de premios) estaban orientados a convertir en realidad, a conseguir el despliegue de las soluciones presentadas.

Y eso es valiosísimo. Eso es un resultado real. 

Ese es el tipo de ética que me gusta a mi personalmente, y que nos gusta en OdiseIA como organización: la ética en positivo y la ética de acción.


La motivación


Algo especial de este evento, supongo que común en este tipo de eventos, es la motivación y el entusiasmo que se respira. Una motivación y un entusiasmo que es de doble cara, tanto en el equipo de organización como en los hackers y los equipos que se esfuerzan por encontrar la mejor solución.

La motivación y el entusiasmo son motores extraordinarios de cualquier actividad humana, y poderlos sentir, respirar, y en abundancia, a raudales, es siempre algo especial


El talento


Uno de mis ideales, uno de los valores, no éticos pero sí de personalidad, que admiro y al que aspiro, es el conocimiento. Así lo tengo declarado en mi página oficial desde hace muchos años, y así lo voy dejando caer en diferentes posts, podcasts o cualquier otro medio que uso para expresarme.

Más allá del mero conocimiento, admiro el talento, el talento que, de alguna manera, es la fusión de unas capacidades intelectuales innatas, con ese conocimiento que mencionaba y con la voluntad de movilizar ambas cosas.

Y un hackathon como el que culminó ayer es una explosión de talento, de personas de todo tipo y condición, valiosas, inteligentes y comprometidas.

Hace ya bastantes años, en otro blog diferente a este, publiqué un post que se titulaba  'Qué bonita es la inteligencia'. En aquel caso, y pese a lo que el título pueda hacer pensar, el ámbito era el del baloncesto, y me fijaba en una jugada famosa, entre Kobe Bryant y nuestro Pau Gasol, un 'pick & roll' donde, éste último, nuestro Pau, demostraba toda su inteligencia en el juego y se permitía guiar al entonces mejor jugador del mundo: Kobe Bryant.

Cambiando sólo la palabra y el entorno, pero con el mismo sentido, puedo exclamar ahora ¡Qué bonito es el talento!

Y bonito era, en efecto, contemplar la sala donde los equipos trabajaban y bonito fue ver sus exposiciones finales, sus 'pitches'.


Las personas y el networking


En un evento de cualquier tipo, una de las cosas que se valoran es la posibilidad de hacer networking, de conocer a personas nuevas, intercambiar experiencias y, quién sabe, si alumbrar oportunidades.

El networking tiene, para mi, una doble cara. Por un lado, la cara práctica, la posibilidad de enterarte de cosas, de establecer conexiones o de encontrar oportunidades profesionales. Pero tiene también una cara de puro placer, de disfrutar conociendo a personas, personas con talento, personas motivadas, personas interesantes y charlar con ellas, sólo por el placer de charlar y de compartir.

En mi etapa profesional y vital actual, tengo que decir que, aunque pueda parecer 'postureo', realmente disfruto casi más de lo segundo, del mero placer de conocer e intercambiar ideas y experiencias, aunque no niego que luego, casi sin buscarlo, casi sin querer, una cosa lleva a la otra y no es raro que surjan oportunidades.

Tengo la sensación de haber podido dedicar poco tiempo a ese networking en esta ocasión ya que el rol que estaba desempeñando y el echar una mano en otras coas (así como alguna limitación de agenda por otros motivos) me impidieron dedicar mucho tiempo a ello. ¡Con la cantidad de gente interesante que había! Pero aún así, me llevo nuevas personas conocidas, nuevos contactos en LinkedIn y algún compromiso real de vernos en otro momento, alrededor de un café o cerveza.

Para los hackers y equipos participantes, espero que también les haya servido para conocer a otras personas que trabajan en proyectos parecidos, que tienen inquietudes parecidas y quién sabe que conocimiento podrán intercambiar, qué contactos establecer o en qué iniciativas podrán colaborar.


Unas palabras sobre la juventud


En el hackathon participaron todo tipo de personas y eso incluye todo tipo de rangos de edad, desde muy jóvenes hasta personas bastante maduras. Eso es fantástico. Esa gran variedad de edades era algo que me comentó alguna persona que le sorprendía, que ella hubiera esperado sólo gente joven. Y es una gran cosa esa especie de mestizaje de edades. No deja de ser otra forma de inclusión y de enriquecimiento.

Pero quisiera centrarme en la juventud, en los más jóvenes, fundamentalmente estudiantes universitarios (en algún caso de primero). Personalmente, me tocó 'supermentorizar' dos equipos de personas jóvenes: un equipo formado por unas chicas estudiantes de la Universidad Rey Juan Carlos, y un equipo de chicos de la Universidad de Santiago de Compostela. Era un placer hablar con ellos y ellas. Era un placer sentir sus ojos atentos a lo que les contabas. Y lo que, a lo mejor, se imaginan menos, y puede que les sorprendiera saberlo, es el placer, casi el orgullo, que sentía cuando l@s veía volcados en sus portátiles, o debatiendo entre ell@s, concentradísim@s en su reto y en sacar adelante sus soluciones respectivas. Es otra forma de ver la motivación y el talento en acción.

También me acerqué a otro equipo, que no era 'mío', el de los 'puntos violeta', porque me causó curiosidad una exposición informal previa y quise entender por qué habían planteado un tipo de modelo de IA concreto. Me acerqué a donde estaba el equipo, y me contestaron a esa pregunta y ya de paso, les pregunté varias cosas más que me interesaban y les hice alguna leve sugerencia, no tanto de cara al hackathon, sino para la continuación del trabajo. Me fui encantado de ver su madurez, lo robusto de la idea (y no sólo desde el punto de vista tecnológico) y lo sensato@s que eran en todos sus planteamientos.

A lo largo del hackathon, en un momento de receso, una compañera de OdiseIA (que se reconocerá si lee esto) me preguntó sobre mi opinión como docente que soy en buena medida actualmente, sobre el nivel y motivación de los estudiantes actuales o de la juventud en general.

No voy a detallar toda mi contestación pero, en esencia, le vine a decir que, en mi experiencia, había de todo. Expresé alguna reserva, que la tengo, respecto al modelo y nivel educativo actuales, pero también le dije, y esto es lo principal, que precisamente en mi actividad docente, aunque me había encontrado de todo, aunque había tenido, claro, alumnos 'pasotas' y poco preparados, también había tenido much@s alumn@s de buen nivel, motivados, trabajadores, entusiastas y, en algunos casos, incluso realmente brillantes. Y concluí diciéndole que, en conjunto, y pensando en el futuro, no me parecía que fuésemos a quedar en malas manos.

Y esa es mi idea: creo que en la juventud actual hay de todo, como lo hay en mi generación o como lo hubo en la de nuestros padres o abuelos. No creo que sea mucho mejor ni mucho peor, probablemente sólo tenga algunos elementos culturales diferentes, pero sólo eso, algo diferentes...como también nosotros fuimos algo diferentes de quienes nos precedieron.

Esa es mi idea en general pero, claro, este hackathon es un 'chute de optimismo', un refuerzo a la visión positiva sobre la juventud. En él hemos podido ver a esa parte de la juventud que es inteligente, formada, entusiasta, comprometida, trabajadora y, en algunos casos, realmente brillante. 


La experiencia


Por encima de muchas cosas, quizá este hackathon sea, sobre todo, una gran experiencia, una grandísima experiencia para cualquiera que participe. sea en el rol que sea.

Cuando aún estábamos en la fase online y aún se estaban conformando los equipos, tuve ocasión de hablar con alguna persona que dudaba si participar o no. Y le intenté transmitir que, más allá de que el reto que se le había asignado le atrajese más o menos, de lo que estaba seguro es de que iba a ser una gran experiencia.

Y creo que así es. Me tocó también 'supermentorizar' un equipo conformado a última hora (el mismo martes por la mañana), por personas que no se conocían entre sí, que no conocían el reto a que se iban a enfrentar y que tenían parte del equipo en online y no presencial. Aunque es evidente que, con ese punto de partida, es imposible alcanzar una solución super-sofisticada y super terminada, lo que sigue siendo valioso es el trabajo realizado, la relación y, en conjunto, la experiencia. Así lo comprobé con las dos personas que estaban presencialmente en Madrid, a las que se veía sonrientes, orgullosas y encantadas con la experiencia.

Me hago la idea de que aquellas personas que hayan vivido la experiencia de este hackathon querrán repetir. Querrán repetir por su interés en la inteligencia artificial y por su compromiso con la acción social y con ayudar a colectivos vulnerables.

Pero querrán repetir también, quizá sobre todo, porque es una experiencia, una gran experiencia.


El futuro


Y si quieren repetir, tendrán ocasión de hacerlo, porque, como tuve ocasión de oír de boca de nuestra presidenta, Idoia Salazar, habrá más ediciones.

Así que, supongo que dentro más o menos de un año, estaremos hablando del II Hackathon Internacional de IA para colectivos vulnerables.


miércoles, 26 de febrero de 2025

Tecnología para el bien (II): organizaciones para el bien

En el post anterior de este blog titulado 'Tecnología para el bien (I): de qué bien hablamos', intentaba transmitir la idea de que el uso de la tecnología para el bien no debe circunscribirse sólo al ámbito de la acción social en territorios como la ayuda a colectivos vulnerables, la aplicación en salud, en ecología, en investigación, etc por más que este tipo de casos de uso nos inspiren y nos eleven y sean, en efecto, grandes exponentes del uso de la tecnología para el bien.

Pero defendía que el uso de la tecnología como base para generar riqueza, que en el fondo no es más que la producción de bienes y servicios, es también un uso para el bien. Defendía que el uso de tecnología para la, últimamente algo denostada, eficiencia, es también un uso para el bien.

Y lo único, que en el fondo no es poco, que precisamos es que cuando usemos la tecnología para generar riqueza lo hagamos de una forma responsable y ética, que sea para fines lícitos y respetando condicionantes éticos y, por supuesto, legales.

Lo último que quería agregar en ese post agregar era la formulación de una tipología, no necesariamente exhaustiva ni 'super-rigurosa', sino más bien ilustrativa, del modo de aplicar la tecnología para el bien, casi de llevar a la práctica el bien en general.

Como el post original me salió más largo de lo previsto, he dejado esa parte para este segundo post. Vamos, pues, a ver esa tipología de urgencia sobre mecanismos a nivel organizativo de aplicación de la tecnología para el bien.


Nivel 1 - Comportamiento ético


Propongo como primer nivel, en cierto modo el más básico, es el comportamiento ético de las organizaciones. Se trata, 'simplemente' de que las organizaciones se rijan aplicando criterios éticos, en su actividad en general, pero específicamente en cómo usan la tecnología.

Para ello podrían ser de aplicación los códigos deontológicos, los códigos éticos profesionales y casi diría, una suerte de 'sentido común ético'. Puede estar poco formalizado y ser, más bien, un elemento cultural de la organización, y muy necesariamente de su nivel directivo, o puede intentar, para garantizar su aplicación, formalizarse mediante mecanismos explícitos de gobernanza que, quizá, podrían caer dentro de la 'G', de ESG.

En el ámbito específico de la inteligencia artificial, puede reflejarse en la implementación práctica de la filosofía de la ética por diseño.

Este nivel es, a la vez, el más simple y el más complejo. Lo propongo como el nivel más básico, pero no porque sea el más sencillo. En realidad, conseguido este nivel, prácticamente todo lo demás viene por añadidura. Lo que ocurre es que es un nivel muy inespecífico, muy de 'propósito general' por decirlo de alguna manera, que aplica a todo tipo de organizaciones, con todo tipo de actividad, económica o no, y todo tipo de misiones y visiones, pero, sobre todo, vale perfectamente para cualquier empresa comercial o industrial del tipo que sea.


Nivel 2 - Empresas con propósito


Está muy de moda esta idea de las empresas 'con propósito'. Se trata de que, en la formulación de su visión y su misión, y en la construcción de su cultura se persiga ese propósito, ese objetivo final que, evidentemente, suele ser aspiracional y de bien común.

En el fondo es sólo una ligera extensión del nivel anterior. Lo que ocurre es que la empresa u organización, se orienta a esa aspiración de conseguir algo bueno, aunque pueda tratarse, de nuevo, de una empresa comercial o industrial digamos 'normal'.

Es cierto, o al menos esa es mi percepción, que con demasiada frecuencia esa formulación de propósito, cae un poco en el ámbito de la pura imagen, en una suerte de 'postureo corporativo', sin que cale realmente ni en la cultura, ni en la acción y gobierno de la organización que la formula.

Para considerarlo un nivel diferenciado debemos estar ante el caso en que la formulación del propósito es real y que de alguna forma dirige la acción, comportamiento y cultura de la organización.


Nivel 3 - Empresa social


Este nivel sí que es muy diferenciado, y muy interesante, además. Estamos ante el caso de empresas cuyo fin en claramente social, entendiendo por objetivo social, de nuevo, objetivos de ayuda a colectivos vulnerables, por ejemplo.

Sin embargo, no dejan de ser empresas y, en ese sentido, deben tener viabilidad económica. Es decir, no renuncian a vender y no renuncian a los ingresos. No sólo no renuncian sino que claramente los necesitan. Porque se trata de empresas. Empresas que, como tales, deben pagar a sus empleados, deben pagar impuestos, deben invertir en activos, deben competir y deben intentar garantizar su viabilidad a medio y largo plazo 

Es la 'cuadratura' del círculo': conseguir que una actividad netamente social sea rentable. Se trata de una fórmula fantástica aunque de difíciles equilibrios.


Nivel 4 - Acción pública


Este nivel, en realidad, no construye sobre el anterior, sino que se sitúa en paralelo. Cuando un fin social se considera que debe ser garantizado, pero es difícilmente rentable, es necesaria la acción pública, es necesario que la asuman las administraciones y, en muchos casos, al menos en Occidente, caen dentro de eso que se ha dado en llamar el 'estado del bienestar'.

Quizá el caso más paradigmático sea el de la sanidad. La atención sanitaria es cara, carísima en realidad, muchísimo más cara de lo que creo que la mayoría de los ciudadanos sospechan. Por ello, la prestación de una atención sanitaria de amplia cobertura, tanto en población como en casuísticas, y asequible, es difícilmente rentable, casi imposiblemente rentable. Y por ello normalmente es asumida por los estados.

Como este caso de la sanidad, podrían existir y existen muchos otros tipos de acción social que, por ser inherentemente caras, o por dirigirse a un público (lo que en el ámbito empresarial diríamos mercado) de escasos recursos y por tanto con poca capacidad de pago y generación de ingresos para las empresas, deben ser subvencionados o asumidos por las administraciones públicas. 


Nivel 5 - Organizaciones sin ánimo de lucro y fin puramente social


Un último nivel es el de organizaciones sin ánimo de lucro y lo que normalmente denominamos ONGs. cuyo objetivo es puramente la acción social. Como son no gubernamentales, caen fuera del ámbito de la acción pública. Y también creo que se diferencian bastante claramente de la empresa social. Porque una ONG se suele sostener por subvenciones, por el trabajo voluntario de las personas que lo componen, por donaciones, etc, pero no tienen una visión realmente empresarial. La empresa social, sin embargo, sí que es una empresa, con todo lo que ello conlleva, y con la 'única' particularidad de que su fin es social.


Conclusiones


Recalco el hecho de que, usar la tecnología para el bien no implica circunscribirse a la ayuda a colectivos vulnerables, a la ecología o a la investigación científica. El uso responsable de la tecnología para producir riqueza en forma de bienes y servicios también es un uso para el bien y sólo precisa que se haga de manera ética y responsable. Y en este post he identificado cinco formas, cinco niveles, de ser responsables a nivel de organización.

Creo que resulta interesante conocer o ser conscientes de las cinco que he planteado pero, en el fondo, lo que desearía, pediría y reclamaría es el nivel 1, el comportamiento ético. 

Lo demás puede venir por añadidura. 


Artículos de este blog relacionados

lunes, 24 de febrero de 2025

Tecnología para el bien (I): de qué bien hablamos

Estoy colaborando en un hackathon, el 'I Hackathon Internacional de IA para Colectivos Vulnerables' organizado por OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), organización de la que soy miembro desde hace unos años.

Como parte de las acciones de promoción de este evento tan especial, impartí una pequeña charla que titule '(Robots 4 Good) Robots para el bien'. Si lo deseas puedes ver esta charla a continuación.



Al principio de la charla reflexionaba muy brevemente sobre lo que es el bien y lo que es el uso de la tecnología (en este caso los robots), para el bien. Como el núcleo de la charla era otro, pasé muy rápido por lo que quería transmitir acerca de lo que significa el bien y no estoy seguro de que  se entendiese el mensaje.

Así que en este post quiero aclararlo un poco y, de paso, ampliarlo enumerando varias formas o varios niveles de uso de la tecnología para el bien, aunque esto último lo dejaré pendiente para un siguiente post continuación de éste.


El concepto del bien


Más allá de conceptos más profundos o filosóficos de lo que es el bien, lo que quería transmitir, y lo que transmito ahora, es lo siguiente: el bien no es sólo la acción social, el bien también es el progreso y la creación de riqueza.

Vamos a desarrollarlo.


El bien como acción social


Cuando hablamos de utilizar la tecnología para el bien, vienen a nuestra mente, en efecto, y como es el objetivo del hackathon, ideas como utilizar tecnología para ayudar a colectivos vulnerables (personas mayores, niños, personas con discapacidad de algún tipo, personas que viven en países pocos desarrollados, personas que sufren efectos de la guerra, etc), o su uso en atención sanitaria, o en investigación, etc

Y, en efecto, eso es el bien. Eso es un gran bien. Y usar la tecnología para ayudar a esos colectivos vulnerables, o para promoción de la salud, o para investigación científica, o para ayudar a animales, o para mejorar la condición del planeta y tantas otras causas son ejemplos, quizá extremos, quizá los más altos, quizá los más inspiradores, de hacer el bien mediante el uso de la tecnología.

Es lo que, quizá simplificando, voy a llamar el bien como acción social...que es en el que solemos pensar al hablar de 'tecnología para el bien'.


El bien como acción económica


Sin embargo, si nos quedamos ahí, si limitamos a entender por el uso de la tecnología para el bien a estas formas de acción creo que estamos cayendo en un reduccionismo muy simplista y muy poco práctico.

Usamos la tecnología para ayudarnos en nuestro día a día, para ayudarnos en nuestra actividad personal y profesional, para permitirnos hacer cosas que si no no seríamos capaces de llevar a cabo, o para ser más eficientes en aquellas que hacemos. Usamos la tecnología para producir bienes y servicios. Usamos la tecnología, por tanto, para producir riqueza, una riqueza que luego disfrutamos de manera individual o colectiva. Todo eso forma parte de la actividad económica y del día a día. Pero no tendemos a identificarlo con el bien. Y eso creo que es un error.

Si una máquina, no sé, una prensa, ayuda a producir piezas metálicas que luego utilizamos para hacer clavos, o herramientas, o piezas, que forman partes de otras máquinas, o en construcción de viviendas, o de puentes o de lo que sea. ¿Eso no es bueno? ¿Es que no queremos puentes para cruzar ríos o clavos para colgar cuadros? ¿No nos facilita eso la vida o nos la hace más agradable?

Si unos robots ayudan a construir coches que necesitamos para desplazarnos o camiones que necesitamos para transportar bienes varios, o si unos robots fabrican circuitos integrados que forman parte de nuestros ordenadores, nuestros smartphones... ¿eso no es bueno? ¿No queremos comunicarnos a distancia? ¿No es bueno disponer de unos dispositivos que nos ponen en contacto unos con otros, que nos ayudan a localizarnos cuando nos necesitamos, que engrasan la actividad profesional o que nos permiten contarnos las pequeñas cosas del día a día?

Si unos sistemas de luces y sonido nos permiten crear un espectáculo teatral o circense ¿eso no es bueno? ¿No deseamos escuchar historias, o ver arte representado ante nosotros que nos inspire, nos conmueva, nos haga pensar o, simplemente, nos divierta? ¿Y eso no es bueno?

En mi opinión la respuesta es si, es un rotundo sí. 

Crear productos y servicios es crear riqueza, es crear bienes materiales o inmateriales que usamos las personas, que simplifican nuestra vida o que la hacen más agradable e incluso, en ocasiones, más digna. Y eso es bueno. Eso es muy bueno. Y utilizar tecnología producir esos productos y servicios de una manera eficiente, consumiendo el mínimo de recursos, es bueno, muy bueno.

¿Acaso no es precisamente ese alta productividad, esa alta riqueza, algo a lo que aspiran los países subdesarrollados o en vías de desarrollo, o los colectivos en riesgo de pobreza? ¿No es en el fondo, algo a lo que aspiramos al menos a mantener, los que tenemos el privilegio de vivir en sociedades económicamente desarrolladas?  

No sé en qué momento hemos renegado, o mejor, le hemos negado el título de 'bueno', o de 'bien', a algo que tanto nos ayuda, que tanto deseamos y que, de nuevo quizá de forma simplificada, he denominado el bien como acción económica.

Para mi, la productividad, la eficiencia, la riqueza son buenas, y usar la tecnología para ello también.


Dos salvedades: espíritu y externalidades negativas


Para que se entienda mejor, y para tener claro de qué estamos hablando, al menos de qué estoy hablando yo, hay que reconocer o avisar de dos hechos muy importantes.

Por una parte el factor espiritual. Lo que quiero dejar claro es que cuando apuesto como algo bueno por la productividades, por la riqueza y por la eficiencia, eso no quiere decir, bajo ningún concepto, que entienda que es lo único valioso, ni siquiera lo mas valioso. No se trata de un materialismo o de construir un altar al progreso a costa de cualquier cosa. No se trata de ignorar el valor de lo espiritual, de las relaciones y desarrollo humanos, de la potenciación de valores intangibles de conocimiento, amor o amistad o, eventualmente, religión. No, no excluyo todo eso, sólo digo que el progreso y la riqueza son buenos. Y usar la tecnología para conseguirlos, también.

El otro elemento a considerar son las externalidades negativas, es decir, efectos indeseados y negativos del uso de la tecnología. La externalidad negativa más representativa probablemente sea la de la contaminación o el impacto medioambiental. Pero pueden existir otras, incluyendo, quizá, el 'robo' de tiempo, la distracción, etc Si, el uso de tecnología, como casi cualquier otra cosa, puede traer estos efectos negativos, que en algún caso concreto nos pudiera hacer cuestionar la bondad de una tecnología, un producto, un proceso productivo, etc. Y quizá, el balance neto, riqueza vs externalidad negativa, aconsejase abandonar alguna tecnología.

Pero que el factor espiritual exista, y deba ser prioritario frente a ningún progreso, o el hecho de que la tecnología pueda traer consigo externalidades negativas, no elimina su carácter de esencialmente bueno- No olvidemos que, además, las externalidades negativas se pueden producir en escenarios de acción social. Un problema de la inteligencia artificial actual es su alto consumo energético y, por tanto su huella de carbono e impacto medioambiental. Si ahora usamos la inteligencia artificial para ayudar a un colectivo vulnerable, eso no elimina la huella de carbono, seguimos, por desgracia, teniendo externalidades negativas.  

Por tanto, de nuevo, que el factor espiritual exista y las externalidades negativas también, no descalifica de manera global a la tecnología como instrumento del bien, sólo nos avisa de que, en cada caso, debemos hacer un uso responsable de la misma, y teniendo claro qué valores priorizamos y qué impacto tiene.


Modelos para aplicar la tecnología para el bien (continuará)


¿Cómo concretar un uso ético de la tecnología? ¿Cómo asegurar que usamos realmente la tecnología para el bien?

La verdad es que pensaba hacer una propuesta en este mismo post, pero como veo que se me está alargando más de lo previsto, voy a posponerlo y, en un artículo continuación de éste, propondré algunos modelos que se me ocurren para llevar a cabo ese uso de la tecnología para el bien.


Conclusiones


Usar la tecnología para la acción social, para ayudar a colectivos vulnerables, para proporcionar una mejor atención social y sanitaría o para colaborar en la investigación científica son formas inspiradoras y muy elevadas del uso de la tecnología para el bien.

Pero usar la tecnología para producir bienes y servicios, para generar una riqueza que nos haga la vida más fácil y agradable es también bueno.

Sólo debemos tener en cuenta nuestras prioridades, que incluyen lo espiritual, y estar avisados de externalidades negativas y, uniendo todas las perspectivas, hacer un uso responsable.


jueves, 20 de febrero de 2025

IA generativa y la ventaja de los expertos y el conocimiento

Cuando vemos los grandes avances de la inteligencia artificial, muy especialmente la generativa, y cuando asombramos con sus grandes avances, su capacidad para sustituir al ser humano en tareas netamente cognitivas, de pensamiento y conocimiento, tareas que hasta hace no tanto pensábamos que eran exclusivas del ser humano, es justo hacerse preguntas, muchas preguntas.


¿El fin del pensamiento humano?


Cabe preguntarse, en efecto si, definitivamente, el conocimiento y capacidad de pensamiento humanos son habilidades en retroceso, si en un futuro ya muy próximo, las máquinas nos sustituirán a la hora de pensar y conocer y no necesitaremos hacerlo nosotros.

Cabe preguntarse si las futuras generaciones sabrán menos, conocerán menos, razonarán menos, porque lo hayan delegado todo en una inteligencia artificial cada vez más potente, más generalista y más accesible.

Incluso cabe preguntarse cómo nos afectará en el corto plazo.

¿El conocimiento o la capacidad de razonar han dejado de ser diferenciales? ¿Han dejado de ser valiosos? ¿Van a desaparecer, incluso?


Una pregunta sin respuesta


Para ser sincero, creo que son preguntas para las que, en el fondo, no tenemos una respuesta completa ni segura al menos a medio y largo plazo.

Pienso que sí, que algo nos afectará, que delegaremos en la inteligencia artificial cada vez más tareas cognitivas o de conocimiento. Que lo haremos de la misma forma que cada vez sabemos menos de un lugar a otro sin la ayuda de Google Maps, Waze o similares. De la misma forma que cada vez recordamos menos números de teléfono. De la misma forma que cada vez más, en lugar de buscar datos o informaciones en libros u otras personas, lo hacemos en un buscador, en un Perplexity o en un ChatGPT en una suerte de externalización de la que ya hablé en el post 'ChatGPT y la externalización de capacidades cognitivas. ¿Debemos preocuparnos?'.

Pero no tengo claro hasta dónde vamos a llegar en ello (calculo que bastante lejos) y, sobre todo, cómo nos va a afectar cognitivamente, a nuestra capacidad de pensar, razonar y recordar. 

Y tampoco tengo cien por cien claro qué debemos hacer en cuanto a educación y en cuanto a desarrollo personal pero, preventivamente, y también por vocación, prefiero seguir cuidando mi cerebro, mi conocimiento y mi capacidad de razonar.


Una luz de esperanza: la ventaja de los expertos


Pero, por si nos asusta la posibilidad de que el conocimiento y el 'expertise' se conviertan en irrelevantes, e incluso que desaparezcan, aquí traigo una pequeña lucecita de esperanza. Una lucecita que me he encontrado leyendo el recientemente publicado libro 'Superagency: What Could Possibly Go Right with Our AI Future' de Reid Hoffman y Greg Beato

En él hay un momento en que, hablando del uso de los LLM ('Large Language Models'), los autores mencionan a Ethan Mollick, profesor de Wharton y su post "Latent Expertise: Everyone is in R&D" en substack. Y de él extraen lo siguiente cita:


Experts thus have many advantages. They are better able to see through LLM errors and hallucinations; they are better judges of AI output in their area of interest; they are better able to instruct the AI to do the required job; and they have the opportunity for more trial and error. That lets them unlock the latent expertise within LLMs in ways that others could not.


Lo que Mollick nos dice es que sí, que el conocimiento sigue siendo valioso, que aunque se use un LLM (entiendo que está pensando básicamente en un chatbot basado en LLM), el conocimiento y la pericia de los expertos les permite extraer mucho más valor del LLM y detectar las posibles inconsistencias o alucinaciones de los modelos.

Creo, además, que va mucho más allá que esto va mucho más del mero uso de buenas técnicas de 'prompt engineering', creo que se refiere a conocimiento auténtico, de dominio científico, técnico o de lo que sea.

Una forma sencilla de comprobar esto, es usar una herramienta generativa orientada a imágenes como un Midjourney o un Stable Diffusion, o incluso una orientada a música como Suno. Personalmente he percibido cómo me siento de 'torpe' con estas herramientas, no por el uso en sí, que es casi tan sencillo y accesible como el de cualquier otra. Lo que me falta, en el caso de las imágenes, son conocimientos de arte, de diseño gráfico, de fotografía, de tratamiento de imágenes, de saber describir, de una forma precisa, lo que quiero obtener, casi diría, no sólo describirlo, sino saber qué quiero obtener realmente. Y lo mismo ocurre con la música: carezco de conocimientos musicales suficientes como para describir estilos musicales o técnicas que no conozco. Y por ello, de momento me contento con 'prompts' sencillos o con copiar 'prompts' cuyo resultado me gusta

De la misma forma, parece razonable pensar que, quizá, el 'expertise' es importante en el uso de los modelos de lenguaje.

Lo que no está tan claro es si, como se dice en el lenguaje de la estrategia empresarial, esa ventaja competitiva es sostenible a largo plazo o si sólo es un transitorio mientras la inteligencia artificial avanza más y más.


Conclusiones


La inteligencia artificial, en especial la generativa, desafía nuestro conocimiento y razonamiento y nos hace preguntarnos hasta qué punto ese conocimiento y razonamiento son valiosos y si lo seguirán siendo en el futuro. Y nos hace cuestionarnos sobre qué debemos hacer entonces con nuestra educación y nuestro desarrollo cognitivo.

A corto plazo parece que todavía, el conocimiento, el razonamiento y la experiencia, son cualidades valiosas y diferenciales.

A largo plazo, no lo veo tan claro pero, preventivamente y como opción, prefiero seguir cuidando y desarrollando mi mente, y aconsejaría al lector hacer lo mismo.


lunes, 17 de febrero de 2025

Una inteligencia diseñada

A veces las historias más o menos inspiradas de ciencia-ficción, a ratos los grandes avances técnicos, en ocasiones los espectaculares resultados o demostraciones, y las más de las veces la ignorancia, nos hacen arrojar sobre la inteligencia artificial unas expectativas desmedidas y, sobre todo, a fantasear e imaginar escenarios descabellados.

Y esas expectativas son a veces de tipo económico, de volúmenes de negocio acertados o no, el tiempo dirá. Pero con más frecuencia y menos acierto la, digamos, literatura técnica (aunque muchas veces no sea ni literatura ni técnica) o también algunas manifestaciones de una ética y responsabilidad mal entendidas, nos hacen imaginar y proclamar, e incluso temer, riesgos existenciales, máquinas con libre albedrío sobre las que perdemos el control, singularidades inminentes y, quizá, quizá, un ejército de modernos terminators a la vuelta de la esquina.


La inteligencia artificial como ingeniería


No está de mas recordar que la inteligencia artificial es tecnología, nada menos que tecnología, pero también nada más que tecnología, tecnología fundamentalmente software, aunque un hardware avanzado ayude mucho, como bien sabe Nvidia. Y una tecnología en que tiene muchísimo peso una ciencia básica como son las matemáticas.

Y, en ingeniería, se enfoca un problema, se analizan las opciones que nos ofrecen la ciencia y técnica y se busca una solución, una solución que funcione y que, en la medida de lo posible, sea eficiente y barata.


Diseño: el conocimiento y la intención


Ante se acometer la construcción de la solución se procede a su diseño, es decir a definir la forma en que se va a construir. Se diseñan procesos productivos, se diseñan máquinas, se diseñan algoritmos.

Si, los algoritmos se diseñan. Algunos algoritmos muy simples (no los de inteligencia artificial) se diseñan casi sobre la marcha, en una 'rápida pensada', pero los algoritmos avanzados como los de la inteligencia artificial, después de una gran, gran pensada, e incluso después de ensayar posibilidades y ver qué tal funcionan en realidad.

El diseño implica conocimiento e intención. Conocimiento de la ciencia y técnicas necesarias. Intención como objetivo, como búsqueda de un resultado. No se puede diseñar si no se sabe lo que se hace, sin los conocimientos necesarios del problema y las opciones científico-técnicas disponibles, y no se diseña al tuntún, sino con foco y objetivos.


Inteligencia artificial y diseño


Y, claro, los algoritmos de la inteligencia artificial están diseñados. Se basan en conocimiento, conocimiento sobre de matemáticas, estadística y computación. Y tienen intención, mucha intención.

Incluso, quizá sobre todo, los algoritmos de la inteligencia artificial generativa, aquellos que nos maravillan con sus resultados, su generalidad, su 'aparente humanidad'. están diseñados, fuertemente diseñados. No hay casualidad. Hay mucha intención y un tanto también de experimentación.

Aunque duro, por complejo y farragoso, es muy instructivo revisar el algoritmo, por ejemplo, de los transformers, la arquitectura inicialmente concebida en Google y que ha revolucionado los modelos de lenguaje y con ellos toda la inteligencia artificial.

No se trata, como quizá alguno se imagine, de un 'montón' de neuronas artificiales, todas interconectadas a las que se les muestran ejemplos y esperamos, sin más, que de una manera casi mágica, aprendan en un extraño y fantástico proceso de emergencia. Si eso fuese así, si realmente eso pudiese funcionar, a lo mejor sí que podrían aparecer fenómenos no previstos, quizá una sintiencia, quizá una consciencia, quizá un libre albedrío.

Pero no, no es así. Cada una de las capas de un transformer tiene un misión y una motivación. No son capas al azar a ver qué pasa. Son capas que han sido pensadas por un científico o un ingeniero, usando  conocimiento e intención. Son capas que, en fin, han sido diseñadas.


Implicaciones de una inteligencia diseñada


Decir que una inteligencia ha sido diseñada es decir que ha sido concebida e implementada por seres humanos.

Decir que ha sido diseñada quiere decir que se basa en conocimiento e intención.

Decir que ha sido diseñada es decir que no hay magia, salvo que consideremos magia, y eso sí que no sería muy desacertado, el ingenio humano y su capacidad para concebir nuevas ideas, en este caso nuevos algoritmos.

Decir que ha sido diseñada quiere decir que se basa en conocimiento y que, por tanto es fuertemente improbable, que pueda hacer algo que supere el conocimiento y entendimiento humanos. Y así, si no sabemos, que no lo sabemos, cómo funciona el cerebro humano, difícilmente lo vamos a emular en su totalidad. Si no sabemos, y no lo sabemos, en qué consiste la consciencia, mal la vamos a diseñar. Si no sabemos, y no lo sabemos, cómo opera el libre albedrío, difícilmente lo vamos a convertir en algoritmo.

Decir que ha sido diseñada quiere decir que tiene intención, que el resultado no tiene voluntad propia, que no es algo casual o fuera de control, que ha sido buscado conscientemente.


Retos para el futuro de una inteligencia diseñada


Si la inteligencia artificial es una inteligencia diseñada, si se basa en el conocimiento y la intención, nos reta de dos formas pensando en el futuro.

Reta nuestro conocimiento, qué más seremos capaces de descubrir, que nuevas posibilidades científicas o técnicas crearemos, qué nueva capacidades adquiriremos, qué nuevos conocimientos atesoraremos.

Y reta nuestra intención, qué objetivos querremos alcanzar con la inteligencia artificial, para qué la querremos utilizar y si seremos capaces de ser responsables y éticos en esas aspiraciones. 


Conclusiones


La inteligencia artificial es una forma de ingeniería, y por tanto, una disciplina donde el diseño juega un papel fundamental. Y el diseño necesita de conocimientos e implica intención. 

Ser conscientes de que se trata de una ingeniería y de un diseño, nos debería hacer abandonar fantasías e imaginaciones.

Ser conscientes de que se trata de una ingeniería y un diseño implica un canto a la inteligencia humana y su capacidad de imaginar, concebir e implementar.

Ser conscientes de que se trata de una ingeniería y un diseño, implica que precisa conocimientos, y nos reta a seguir avanzando, a seguir creciendo, a seguir aprendiendo.

Ser conscientes de que se trata de una ingeniería y un diseño, implica que sigue una intención, y por tanto nos reta a la ética y a la responsabilidad y a buscar en la inteligencia artificial todo aquello, y es muchísimo, y sólo aquello, en que puede ayudar a la humanidad.


viernes, 7 de febrero de 2025

La hibridación de los robots software: agentes frente a RPA y robots conversacionales

En el post anterior de este blog, hablaba del nacimiento de una nueva especie robótica, un nuevo tipo de robots software: los agentes de la Agentic AI

Le pongo el apellido 'de Agentic AI' a la espera de que la industria genere algún nuevo nombre, porque el término agente, como expliqué en ese último post, es demasiado genérico y denomina a muchos entes ya existentes incluyendo a las propias personas.

En este artículo pretendo mostrar cómo, desde un punto de vista funcional, no tanto tecnológico, estos agentes, al menos lo que de ellos se nos ha mostrado hasta la fecha, son una suerte de hibridación y evolución de las dos especies de robótica software anteriores: los robots RPA y los robots conversacionales.

Esas dos especies robóticas, robots RPA y robots conversacionales o chatbots, son las que yo identificaba y explicaba en mi libro 'Robots en la sombra'.

Antes de hablar los agentes, pues, recordemos brevemente las ideas principales sobre robots RPA y robots conversacionales.


Los robots RPA


Esquematizo la idea de RPA en la siguiente figura


Robots RPA


Los robots RPA ('Robotic Process Automation') son un tipo de módulos software orientados a interaccionar con recursos IT ya existentes, tanto en la propia empresa como en Internet. Entre esos recursos se encuentran las aplicaciones (a las que acceden ya sea vía conectores o interactuando directamente con su interfaz de usuarios) los documentos recogidos en todo tipo de ficheros, y otros recursos y protocolos con que se interactúa fundamentalmente usando APIs y conectores.

En ese sentido, los robots RPA suelen automatizar orquestando recursos digitales ya existentes, coordinando lecturas, escrituras y solicitud de acciones. 

La lógica de estos robots se basa en reglas, o mejor, en flujos o workflows que define el desarrollador... en tiempo de desarrollo.


Los robots conversacionales


Por su parte, los robots conversacionales, fundamentalmente los chatbots y voicebots tradicionales se ajustan a la siguiente figura:


Robots conversacionales tradicionales

Para los robots conversacionales, su entorno natural son las personas, ya que están diseñados, precisamente, para una interacción natural con ellas mediante conversaciones. En ese sentido, suelen actuar como front-end de una aplicación o de un conjunto de ellas de las que obtienen información o a las que solicitan acciones. Por eso, aunque su entorno principal son las personas, interaccionan también, un poco en back-office, con aplicaciones y recursos haciendo uso, al igual que los robots RPA, de conectores y APIs.

Presentan en su entrada capacidades de procesamiento de voz y lenguaje natural que son entrenadas, en realidad ajustadas, en tiempo de desarrollo, para reconocer intenciones y entidades en lo que el usuario transmite. A partir de ahí, las respuestas y la interacción con el back-office se define con base en reglas claras y en tiempo de desarrollo. 

El planteamiento de los chatbots y su construcción cambia con la llegada de los chatbots basados en modelos generativos, pero prefiero dejar como está la descripción de los robots conversacionales, en parte por claridad de discurso, pero en parte también porque podría no ser descabellado considerar un chatbot basado en modelo generativo como una forma muy simple, quizá un poco degradada, de agente.


¿Y qué son los agentes?


Y llegamos a los agentes.

Los agentes (los de la Agentic AI, me refiero) son módulos software cuyo 'cerebro', por decirlo de alguna manera, es un modelo generativo (podríamos decir que un gran modelo de lenguaje, pero creo que el nombre empieza a resultar inadecuado dada su misión y su probable evolución tecnológica). 

Siguen siendo módulos software autónomos (como los anteriores), y por tanto robots software, en mi opinión. La gran diferencia, la grandísima diferencia, es que ellos mismos deciden la lógica de actuación y lo hacen en tiempo de ejecución, no en tiempo de desarrollo.

Los agentes reciben una solicitud o indicación mediante un prompt que les fija un objetivo y, a partir de ahí, deducen ellos mismos, o al menos esa es la promesa, las acciones a llevar a cabo... y las ejecutan, hasta conseguir los resultados deseados.

Aunque todavía son una idea naciente y que debe evolucionar, concretarse y consolidarse, podemos hacernos una idea de 'por dónde van los tiros', viendo este vídeo reciente de OpenAI mostrando su 'Operator'.



Vemos que el usuario hace una petición de viva voz al agente (y por tanto genera un prompt) lo que quiere y, a partir de ahí, el agente decide lo que tiene que hacer y, en ese lo que tiene que hacer se incluye interaccionar con sitios web a través de sus pantallas. Es decir, el agente interacciona con una persona pero, además, interacciona con aplicaciones.

Yendo ligeramente más allá de lo que se ve en esta demostración, pero reflejando algunas cosas que ya se hacen en frameworks como LangChain y alguna evolución casi evidente y que creo que inminente, el esquema de un agente de la Agentic AI como el que se ve en el vídeo podría ser el ue se muestra en la figura:

Agente

Respecto a lo que se ve en el vídeo, esta figura añade la posibilidad de interactuar con ficheros y la invocación a conectores y APIs, pero no tengo ninguna duda de que, si eso no está disponible ya, lo estará prontísimo, tanto por su utilidad como porque tecnológicamente no supone un desafío ni dificultad adicionales.


Agentic AI como hibridación y evolución de RPA y robots conversacionales


La figura anterior en que esquematizo la idea de un agente, se parece mucho a la que utilizo para RPA o para robots conversacionales. Y eso no es casual. Es intencionado para mostrar los paralelismos que, para mí, son evidentes.

De hecho, para cualquiera que sea conocedor de RPA, lo que muestra la demostración de Operator recuerda muchísimo a RPA, casi lo podríamos considerar RPA: ese interactuar con pantallas de aplicaciones para obtener datos y pedir acciones es lo que supuso el nacimiento de RPA como tipología de solución diferenciada, y lo que todavía hoy en día más la caracteriza, aunque no necesariamente sea como más su utiliza.  Si a eso le añadimos el trabajo con ficheros y el uso de conectores y APIs, tendríamos lo mismo que RPA

Y, es evidente, que estos agentes pueden, si así se desea (aunque es muy probable que en muchas realizaciones prácticas no se utilice) interactuar con usuarios, con personas, mediante texto o de viva voz...de la misma manera que que hacen los robots conversacionales y como se muestra en el video.

Es por ello que considero que los agentes de la Agentic AI no es sólo que sean robots software es que reúnen y fusionan las capacidades de RPA y de los robots conversacionales, las dos 'especies' anteriores, como se ve en la figura que ya auna las tres figuras de cada una de las especies de robot software.


Las tres especies de robot software

La diferencia, la gran diferencia, tanto para lo bueno como para lo malo, frente al caso del RPA que hemos tenido hasta ahora, y a los robots conversacionales que han dominado el panorama hasta la aparición de los chatbots generativos, está en el 'cerebro' y en la lógica de actuación de los agentes.

En el caso de los robots RPA hablamos de flujos o workflows definidos por un desarrollador. Aunque es cierto que hoy en día se pueden enriquecer con elementos de inteligencia artificial y de decisión en tiempo de ejecución, en esencia se basan en reglas y flujos conocidos y establecidos en tiempo de desarrollo.

En el caso de los robots conversacionales tradicionales, aunque interviene un poco de inteligencia artificial en la entrada, a partir de ahí trabajamos con reglas y lógicas definidas por el desarrollador y también en tiempo de desarrollo.

Sin embargo, los agentes, que se basan en modelos generativos, no sólo es que generen una respuesta textual o de voz no predefinida sino que, muchísimo más importante, define el plan de acción de manera autónoma y en tiempo de ejecución. Por decirlo de alguna forma, son muchísimo más inteligentes y mucho más autónomos. Al menos esa es la promesa.


El arma de doble filo


Si los agentes 'cumplen su promesa', si están a la altura no de lo que ya se puede hacer con LangChain hoy en día sino que realmente son capaces de crear planes de actuación de manera autónoma como se muestra en el vídeo y en lo que se está publicando, las posibilidades son inmensas, casi revolucionarias.

Sin embargo, hablo de un arma de doble filo porque, en según qué entornos, por ejemplo la automatización industrial o procesos uniformes y masivos, podemos preferir las reglas claras, conocidas y predecibles de los robots y sistemas tradicionales, antes que unos planes que podrían hacer cosas extrañas (la versión de 'alucinación' llevada a un plan de acción), inesperadas o poco eficientes

Habrá que, por un lado, ver lo que los agentes sean capaces de ofrecer realmente, y por otro aplicar el sentido común.


Conclusiones


Creo haber mostrado, no sólo que los agentes de la Agentic AI son un tipo de robot software sino que, además, al menos en lo que se está prometiendo, aúnan las capacidades tanto de RPA como de robots conversacionales, pero de una forma mucho más inteligente y autónoma y, eso sí, algo más impredecible.

Va a ser interesantísimo ver a dónde se llega realmente en las próximas semanas y meses.