viernes, 28 de febrero de 2025

OdiseIA4Good: un hackathon y ocho reflexiones

Ayer culminó el 'I Hackathon internacional de IA para colectivos vulnerables' organizado por OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), organización a la que pertenezco desde hace, creo, cinco años. Y un evento en que participe, fundamentalmente dando soporte a algunos de los equipos que participaban, en un rol que la organización definió como 'supermentor'.

Un evento del que no había hablado en este blog aunque sí había dejado rastro en algunos de mis otros canales digitales.

El hackathon en total duró casi tres semanas, pues hubo dos semanas previas de fase online, un poco de calentamiento, pero la parte nuclear, la fase presencial, tuvo lugar los días 25, 26 y 27 de Febrero.

En este post quiero recoger algunas impresiones y reflexiones personales sobre el evento. Decir que, aunque pertenezco a OdiseIA y he colaborado en el evento, son reflexiones absolutamente personales. 


El esfuerzo de organización


La primera impresión, quizá la de índole más práctica, es la que tiene que ver con el tremendo esfuerzo de organización que supone montar un evento así. No he estado involucrado en la organización propiamente dicha salvo para echar una mano en temas puntuales porque mi rol era otro, pero al estar muy cerca de la organización y conocer bien a quienes se encargaban de ella, he podido observar bastante de cerca la gestión, la organización, la logística e incluso la necesidad de reaccionar ante los siempre presentes imprevistos.

Y, hasta donde lo he percibido, he podido comprobar cómo organizar un evento de esta naturaleza, es un esfuerzo de gestión fenomenal (y la palabra esfuerzo es muy adecuada) con mil y un aristas, mil y un detalles, mil cosas que pensar, organizar o resolver, y todo ello bien orquestado para que las cosas se hagan o sucedan en el modo y momento en que tiene que ser. Hay mucha, muchísima gestión, y también mucho esfuerzo y mucha voluntad y dedicación para salvar todo aquello que la mera organización no puede prever.

Realmente, hasta la fecha, OdiseIA no había acometido una iniciativa de esta envergadura y, aunque siempre hay puntos de mejora (tengo en mi cuaderno mental alguna propuesta), creo que el reto, y ahora me refiero no al social, sino al organizativo, se ha superado con muy buena nota. 


El atractivo de la IA responsable


Algo muy reconfortante es comprobar cómo la inteligencia artificial responsable, y cómo su aplicación social, y en este caso para colectivos vulnerables, son temas que resultan atractivos. La respuesta en número de 'hackers' y equipos ha sido muy alta y no ha dejado de sorprenderme cosas como que haya participado, bien que en modalidad online, alguna persona de lugares tan remotos como Sri Lanka (todavía no me explico cómo tuvo noticias del hackathon), que bastantes hackers con residencia fuera de Madrid se hayan desplazado a la capital para estar tres días dedicados al hackathon o que en el evento de cierre de ayer, lo que se denominó el congreso, también asistiera como espectador alguna persona venida de fuera de Madrid expresamente para el acto.

Desde luego, OdiseIA organizó un evento muy atractivo, pero también creo que existe un atractivo intrínseco, no sólo de la inteligencia artificial como tecnología o como negocio, que es casi evidente, sino también del uso ético y de su aplicación social.

Y ese interés es muy esperanzador.


El impacto social


Hay otro gran motivo de esperanza. Muchos de los proyectos que han salido de este hackathon o que se han impulsado durante el mismo, tienen, por supuesto, una clarísima vocación social pero es que, además, son, no tengo ninguna duda, perfectamente viables e implantables.

Me tocó 'supermentorizar' dos proyectos de estos que son maduros, de alto impacto e implantables. Uno de ellos es un proyecto espectacular, casi diría una línea de trabajo, de la Universidad Complutense, que aplican inteligencia artificial para distintos elementos relacionados con el agua, como su detección o el análisis de potabilidad. Y todo ello con el propósito, en primera instancia, de desplegarlo de la forma más masiva posible en Etiopía, aunque es aplicable en cualquier lugar, especialmente afectada por sequía y escasez de agua.

También me tocó en suerte, 'supermentorizar' un equipo y un proyecto, que a la postre fue el ganador del Hackathon, que trabaja en el campo de la accesibilidad web y que dispe de un plugin que analiza el texto de una web y lo traduce a lenguaje sencillo en primera instancia y lo que se denomina en accesibilidad, 'lectura fácil (no es lo mismo aunque lo parezca). Y lo demostraban sobre páginas de la administración pública, creo recordar que de la agencia tributaria, aunque de este último extremo no estoy seguro. El último día por la mañana me acerqué a su mesa a ver si me podían hacer una 'demo' informal. Tras acabar de verlo les dije que en mi opinión eso era implantable ya. Que tenía mercado. Que, mas allá del hackathon 'había que moverlo'. El jurado debe haber pensado algo parecido desde el momento que obtuvieron el primer premio.

Estos son los casos que conozco más, pero seguro que muchas de las soluciones creadas o evolucionadas en el hackathon tienen posibilidades reales de implantación y, por tanto, posibilidades reales de tener impacto social.  

De hecho, los premios (en realidad había muchos y diferentes tipos de premios) estaban orientados a convertir en realidad, a conseguir el despliegue de las soluciones presentadas.

Y eso es valiosísimo. Eso es un resultado real. 

Ese es el tipo de ética que me gusta a mi personalmente, y que nos gusta en OdiseIA como organización: la ética en positivo y la ética de acción.


La motivación


Algo especial de este evento, supongo que común en este tipo de eventos, es la motivación y el entusiasmo que se respira. Una motivación y un entusiasmo que es de doble cara, tanto en el equipo de organización como en los hackers y los equipos que se esfuerzan por encontrar la mejor solución.

La motivación y el entusiasmo son motores extraordinarios de cualquier actividad humana, y poderlos sentir, respirar, y en abundancia, a raudales, es siempre algo especial


El talento


Uno de mis ideales, uno de los valores, no éticos pero sí de personalidad, que admiro y al que aspiro, es el conocimiento. Así lo tengo declarado en mi página oficial desde hace muchos años, y así lo voy dejando caer en diferentes posts, podcasts o cualquier otro medio que uso para expresarme.

Más allá del mero conocimiento, admiro el talento, el talento que, de alguna manera, es la fusión de unas capacidades intelectuales innatas, con ese conocimiento que mencionaba y con la voluntad de movilizar ambas cosas.

Y un hackathon como el que culminó ayer es una explosión de talento, de personas de todo tipo y condición, valiosas, inteligentes y comprometidas.

Hace ya bastantes años, en otro blog diferente a este, publiqué un post que se titulaba  'Qué bonita es la inteligencia'. En aquel caso, y pese a lo que el título pueda hacer pensar, el ámbito era el del baloncesto, y me fijaba en una jugada famosa, entre Kobe Bryant y nuestro Pau Gasol, un 'pick & roll' donde, éste último, nuestro Pau, demostraba toda su inteligencia en el juego y se permitía guiar al entonces mejor jugador del mundo: Kobe Bryant.

Cambiando sólo la palabra y el entorno, pero con el mismo sentido, puedo exclamar ahora ¡Qué bonito es el talento!

Y bonito era, en efecto, contemplar la sala donde los equipos trabajaban y bonito fue ver sus exposiciones finales, sus 'pitches'.


Las personas y el networking


En un evento de cualquier tipo, una de las cosas que se valoran es la posibilidad de hacer networking, de conocer a personas nuevas, intercambiar experiencias y, quién sabe, si alumbrar oportunidades.

El networking tiene, para mi, una doble cara. Por un lado, la cara práctica, la posibilidad de enterarte de cosas, de establecer conexiones o de encontrar oportunidades profesionales. Pero tiene también una cara de puro placer, de disfrutar conociendo a personas, personas con talento, personas motivadas, personas interesantes y charlar con ellas, sólo por el placer de charlar y de compartir.

En mi etapa profesional y vital actual, tengo que decir que, aunque pueda parecer 'postureo', realmente disfruto casi más de lo segundo, del mero placer de conocer e intercambiar ideas y experiencias, aunque no niego que luego, casi sin buscarlo, casi sin querer, una cosa lleva a la otra y no es raro que surjan oportunidades.

Tengo la sensación de haber podido dedicar poco tiempo a ese networking en esta ocasión ya que el rol que estaba desempeñando y el echar una mano en otras coas (así como alguna limitación de agenda por otros motivos) me impidieron dedicar mucho tiempo a ello. ¡Con la cantidad de gente interesante que había! Pero aún así, me llevo nuevas personas conocidas, nuevos contactos en LinkedIn y algún compromiso real de vernos en otro momento, alrededor de un café o cerveza.

Para los hackers y equipos participantes, espero que también les haya servido para conocer a otras personas que trabajan en proyectos parecidos, que tienen inquietudes parecidas y quién sabe que conocimiento podrán intercambiar, qué contactos establecer o en qué iniciativas podrán colaborar.


Unas palabras sobre la juventud


En el hackathon participaron todo tipo de personas y eso incluye todo tipo de rangos de edad, desde muy jóvenes hasta personas bastante maduras. Eso es fantástico. Esa gran variedad de edades era algo que me comentó alguna persona que le sorprendía, que ella hubiera esperado sólo gente joven. Y es una gran cosa esa especie de mestizaje de edades. No deja de ser otra forma de inclusión y de enriquecimiento.

Pero quisiera centrarme en la juventud, en los más jóvenes, fundamentalmente estudiantes universitarios (en algún caso de primero). Personalmente, me tocó 'supermentorizar' dos equipos de personas jóvenes: un equipo formado por unas chicas estudiantes de la Universidad Rey Juan Carlos, y un equipo de chicos de la Universidad de Santiago de Compostela. Era un placer hablar con ellos y ellas. Era un placer sentir sus ojos atentos a lo que les contabas. Y lo que, a lo mejor, se imaginan menos, y puede que les sorprendiera saberlo, es el placer, casi el orgullo, que sentía cuando l@s veía volcados en sus portátiles, o debatiendo entre ell@s, concentradísim@s en su reto y en sacar adelante sus soluciones respectivas. Es otra forma de ver la motivación y el talento en acción.

También me acerqué a otro equipo, que no era 'mío', el de los 'puntos violeta', porque me causó curiosidad una exposición informal previa y quise entender por qué habían planteado un tipo de modelo de IA concreto. Me acerqué a donde estaba el equipo, y me contestaron a esa pregunta y ya de paso, les pregunté varias cosas más que me interesaban y les hice alguna leve sugerencia, no tanto de cara al hackathon, sino para la continuación del trabajo. Me fui encantado de ver su madurez, lo robusto de la idea (y no sólo desde el punto de vista tecnológico) y lo sensato@s que eran en todos sus planteamientos.

A lo largo del hackathon, en un momento de receso, una compañera de OdiseIA (que se reconocerá si lee esto) me preguntó sobre mi opinión como docente que soy en buena medida actualmente, sobre el nivel y motivación de los estudiantes actuales o de la juventud en general.

No voy a detallar toda mi contestación pero, en esencia, le vine a decir que, en mi experiencia, había de todo. Expresé alguna reserva, que la tengo, respecto al modelo y nivel educativo actuales, pero también le dije, y esto es lo principal, que precisamente en mi actividad docente, aunque me había encontrado de todo, aunque había tenido, claro, alumnos 'pasotas' y poco preparados, también había tenido much@s alumn@s de buen nivel, motivados, trabajadores, entusiastas y, en algunos casos, incluso realmente brillantes. Y concluí diciéndole que, en conjunto, y pensando en el futuro, no me parecía que fuésemos a quedar en malas manos.

Y esa es mi idea: creo que en la juventud actual hay de todo, como lo hay en mi generación o como lo hubo en la de nuestros padres o abuelos. No creo que sea mucho mejor ni mucho peor, probablemente sólo tenga algunos elementos culturales diferentes, pero sólo eso, algo diferentes...como también nosotros fuimos algo diferentes de quienes nos precedieron.

Esa es mi idea en general pero, claro, este hackathon es un 'chute de optimismo', un refuerzo a la visión positiva sobre la juventud. En él hemos podido ver a esa parte de la juventud que es inteligente, formada, entusiasta, comprometida, trabajadora y, en algunos casos, realmente brillante. 


La experiencia


Por encima de muchas cosas, quizá este hackathon sea, sobre todo, una gran experiencia, una grandísima experiencia para cualquiera que participe. sea en el rol que sea.

Cuando aún estábamos en la fase online y aún se estaban conformando los equipos, tuve ocasión de hablar con alguna persona que dudaba si participar o no. Y le intenté transmitir que, más allá de que el reto que se le había asignado le atrajese más o menos, de lo que estaba seguro es de que iba a ser una gran experiencia.

Y creo que así es. Me tocó también 'supermentorizar' un equipo conformado a última hora (el mismo martes por la mañana), por personas que no se conocían entre sí, que no conocían el reto a que se iban a enfrentar y que tenían parte del equipo en online y no presencial. Aunque es evidente que, con ese punto de partida, es imposible alcanzar una solución super-sofisticada y super terminada, lo que sigue siendo valioso es el trabajo realizado, la relación y, en conjunto, la experiencia. Así lo comprobé con las dos personas que estaban presencialmente en Madrid, a las que se veía sonrientes, orgullosas y encantadas con la experiencia.

Me hago la idea de que aquellas personas que hayan vivido la experiencia de este hackathon querrán repetir. Querrán repetir por su interés en la inteligencia artificial y por su compromiso con la acción social y con ayudar a colectivos vulnerables.

Pero querrán repetir también, quizá sobre todo, porque es una experiencia, una gran experiencia.


El futuro


Y si quieren repetir, tendrán ocasión de hacerlo, porque, como tuve ocasión de oír de boca de nuestra presidenta, Idoia Salazar, habrá más ediciones.

Así que, supongo que dentro más o menos de un año, estaremos hablando del II Hackathon Internacional de IA para colectivos vulnerables.


miércoles, 26 de febrero de 2025

Tecnología para el bien (II): organizaciones para el bien

En el post anterior de este blog titulado 'Tecnología para el bien (I): de qué bien hablamos', intentaba transmitir la idea de que el uso de la tecnología para el bien no debe circunscribirse sólo al ámbito de la acción social en territorios como la ayuda a colectivos vulnerables, la aplicación en salud, en ecología, en investigación, etc por más que este tipo de casos de uso nos inspiren y nos eleven y sean, en efecto, grandes exponentes del uso de la tecnología para el bien.

Pero defendía que el uso de la tecnología como base para generar riqueza, que en el fondo no es más que la producción de bienes y servicios, es también un uso para el bien. Defendía que el uso de tecnología para la, últimamente algo denostada, eficiencia, es también un uso para el bien.

Y lo único, que en el fondo no es poco, que precisamos es que cuando usemos la tecnología para generar riqueza lo hagamos de una forma responsable y ética, que sea para fines lícitos y respetando condicionantes éticos y, por supuesto, legales.

Lo último que quería agregar en ese post agregar era la formulación de una tipología, no necesariamente exhaustiva ni 'super-rigurosa', sino más bien ilustrativa, del modo de aplicar la tecnología para el bien, casi de llevar a la práctica el bien en general.

Como el post original me salió más largo de lo previsto, he dejado esa parte para este segundo post. Vamos, pues, a ver esa tipología de urgencia sobre mecanismos a nivel organizativo de aplicación de la tecnología para el bien.


Nivel 1 - Comportamiento ético


Propongo como primer nivel, en cierto modo el más básico, es el comportamiento ético de las organizaciones. Se trata, 'simplemente' de que las organizaciones se rijan aplicando criterios éticos, en su actividad en general, pero específicamente en cómo usan la tecnología.

Para ello podrían ser de aplicación los códigos deontológicos, los códigos éticos profesionales y casi diría, una suerte de 'sentido común ético'. Puede estar poco formalizado y ser, más bien, un elemento cultural de la organización, y muy necesariamente de su nivel directivo, o puede intentar, para garantizar su aplicación, formalizarse mediante mecanismos explícitos de gobernanza que, quizá, podrían caer dentro de la 'G', de ESG.

En el ámbito específico de la inteligencia artificial, puede reflejarse en la implementación práctica de la filosofía de la ética por diseño.

Este nivel es, a la vez, el más simple y el más complejo. Lo propongo como el nivel más básico, pero no porque sea el más sencillo. En realidad, conseguido este nivel, prácticamente todo lo demás viene por añadidura. Lo que ocurre es que es un nivel muy inespecífico, muy de 'propósito general' por decirlo de alguna manera, que aplica a todo tipo de organizaciones, con todo tipo de actividad, económica o no, y todo tipo de misiones y visiones, pero, sobre todo, vale perfectamente para cualquier empresa comercial o industrial del tipo que sea.


Nivel 2 - Empresas con propósito


Está muy de moda esta idea de las empresas 'con propósito'. Se trata de que, en la formulación de su visión y su misión, y en la construcción de su cultura se persiga ese propósito, ese objetivo final que, evidentemente, suele ser aspiracional y de bien común.

En el fondo es sólo una ligera extensión del nivel anterior. Lo que ocurre es que la empresa u organización, se orienta a esa aspiración de conseguir algo bueno, aunque pueda tratarse, de nuevo, de una empresa comercial o industrial digamos 'normal'.

Es cierto, o al menos esa es mi percepción, que con demasiada frecuencia esa formulación de propósito, cae un poco en el ámbito de la pura imagen, en una suerte de 'postureo corporativo', sin que cale realmente ni en la cultura, ni en la acción y gobierno de la organización que la formula.

Para considerarlo un nivel diferenciado debemos estar ante el caso en que la formulación del propósito es real y que de alguna forma dirige la acción, comportamiento y cultura de la organización.


Nivel 3 - Empresa social


Este nivel sí que es muy diferenciado, y muy interesante, además. Estamos ante el caso de empresas cuyo fin en claramente social, entendiendo por objetivo social, de nuevo, objetivos de ayuda a colectivos vulnerables, por ejemplo.

Sin embargo, no dejan de ser empresas y, en ese sentido, deben tener viabilidad económica. Es decir, no renuncian a vender y no renuncian a los ingresos. No sólo no renuncian sino que claramente los necesitan. Porque se trata de empresas. Empresas que, como tales, deben pagar a sus empleados, deben pagar impuestos, deben invertir en activos, deben competir y deben intentar garantizar su viabilidad a medio y largo plazo 

Es la 'cuadratura' del círculo': conseguir que una actividad netamente social sea rentable. Se trata de una fórmula fantástica aunque de difíciles equilibrios.


Nivel 4 - Acción pública


Este nivel, en realidad, no construye sobre el anterior, sino que se sitúa en paralelo. Cuando un fin social se considera que debe ser garantizado, pero es difícilmente rentable, es necesaria la acción pública, es necesario que la asuman las administraciones y, en muchos casos, al menos en Occidente, caen dentro de eso que se ha dado en llamar el 'estado del bienestar'.

Quizá el caso más paradigmático sea el de la sanidad. La atención sanitaria es cara, carísima en realidad, muchísimo más cara de lo que creo que la mayoría de los ciudadanos sospechan. Por ello, la prestación de una atención sanitaria de amplia cobertura, tanto en población como en casuísticas, y asequible, es difícilmente rentable, casi imposiblemente rentable. Y por ello normalmente es asumida por los estados.

Como este caso de la sanidad, podrían existir y existen muchos otros tipos de acción social que, por ser inherentemente caras, o por dirigirse a un público (lo que en el ámbito empresarial diríamos mercado) de escasos recursos y por tanto con poca capacidad de pago y generación de ingresos para las empresas, deben ser subvencionados o asumidos por las administraciones públicas. 


Nivel 5 - Organizaciones sin ánimo de lucro y fin puramente social


Un último nivel es el de organizaciones sin ánimo de lucro y lo que normalmente denominamos ONGs. cuyo objetivo es puramente la acción social. Como son no gubernamentales, caen fuera del ámbito de la acción pública. Y también creo que se diferencian bastante claramente de la empresa social. Porque una ONG se suele sostener por subvenciones, por el trabajo voluntario de las personas que lo componen, por donaciones, etc, pero no tienen una visión realmente empresarial. La empresa social, sin embargo, sí que es una empresa, con todo lo que ello conlleva, y con la 'única' particularidad de que su fin es social.


Conclusiones


Recalco el hecho de que, usar la tecnología para el bien no implica circunscribirse a la ayuda a colectivos vulnerables, a la ecología o a la investigación científica. El uso responsable de la tecnología para producir riqueza en forma de bienes y servicios también es un uso para el bien y sólo precisa que se haga de manera ética y responsable. Y en este post he identificado cinco formas, cinco niveles, de ser responsables a nivel de organización.

Creo que resulta interesante conocer o ser conscientes de las cinco que he planteado pero, en el fondo, lo que desearía, pediría y reclamaría es el nivel 1, el comportamiento ético. 

Lo demás puede venir por añadidura. 


Artículos de este blog relacionados

lunes, 24 de febrero de 2025

Tecnología para el bien (I): de qué bien hablamos

Estoy colaborando en un hackathon, el 'I Hackathon Internacional de IA para Colectivos Vulnerables' organizado por OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), organización de la que soy miembro desde hace unos años.

Como parte de las acciones de promoción de este evento tan especial, impartí una pequeña charla que titule '(Robots 4 Good) Robots para el bien'. Si lo deseas puedes ver esta charla a continuación.



Al principio de la charla reflexionaba muy brevemente sobre lo que es el bien y lo que es el uso de la tecnología (en este caso los robots), para el bien. Como el núcleo de la charla era otro, pasé muy rápido por lo que quería transmitir acerca de lo que significa el bien y no estoy seguro de que  se entendiese el mensaje.

Así que en este post quiero aclararlo un poco y, de paso, ampliarlo enumerando varias formas o varios niveles de uso de la tecnología para el bien, aunque esto último lo dejaré pendiente para un siguiente post continuación de éste.


El concepto del bien


Más allá de conceptos más profundos o filosóficos de lo que es el bien, lo que quería transmitir, y lo que transmito ahora, es lo siguiente: el bien no es sólo la acción social, el bien también es el progreso y la creación de riqueza.

Vamos a desarrollarlo.


El bien como acción social


Cuando hablamos de utilizar la tecnología para el bien, vienen a nuestra mente, en efecto, y como es el objetivo del hackathon, ideas como utilizar tecnología para ayudar a colectivos vulnerables (personas mayores, niños, personas con discapacidad de algún tipo, personas que viven en países pocos desarrollados, personas que sufren efectos de la guerra, etc), o su uso en atención sanitaria, o en investigación, etc

Y, en efecto, eso es el bien. Eso es un gran bien. Y usar la tecnología para ayudar a esos colectivos vulnerables, o para promoción de la salud, o para investigación científica, o para ayudar a animales, o para mejorar la condición del planeta y tantas otras causas son ejemplos, quizá extremos, quizá los más altos, quizá los más inspiradores, de hacer el bien mediante el uso de la tecnología.

Es lo que, quizá simplificando, voy a llamar el bien como acción social...que es en el que solemos pensar al hablar de 'tecnología para el bien'.


El bien como acción económica


Sin embargo, si nos quedamos ahí, si limitamos a entender por el uso de la tecnología para el bien a estas formas de acción creo que estamos cayendo en un reduccionismo muy simplista y muy poco práctico.

Usamos la tecnología para ayudarnos en nuestro día a día, para ayudarnos en nuestra actividad personal y profesional, para permitirnos hacer cosas que si no no seríamos capaces de llevar a cabo, o para ser más eficientes en aquellas que hacemos. Usamos la tecnología para producir bienes y servicios. Usamos la tecnología, por tanto, para producir riqueza, una riqueza que luego disfrutamos de manera individual o colectiva. Todo eso forma parte de la actividad económica y del día a día. Pero no tendemos a identificarlo con el bien. Y eso creo que es un error.

Si una máquina, no sé, una prensa, ayuda a producir piezas metálicas que luego utilizamos para hacer clavos, o herramientas, o piezas, que forman partes de otras máquinas, o en construcción de viviendas, o de puentes o de lo que sea. ¿Eso no es bueno? ¿Es que no queremos puentes para cruzar ríos o clavos para colgar cuadros? ¿No nos facilita eso la vida o nos la hace más agradable?

Si unos robots ayudan a construir coches que necesitamos para desplazarnos o camiones que necesitamos para transportar bienes varios, o si unos robots fabrican circuitos integrados que forman parte de nuestros ordenadores, nuestros smartphones... ¿eso no es bueno? ¿No queremos comunicarnos a distancia? ¿No es bueno disponer de unos dispositivos que nos ponen en contacto unos con otros, que nos ayudan a localizarnos cuando nos necesitamos, que engrasan la actividad profesional o que nos permiten contarnos las pequeñas cosas del día a día?

Si unos sistemas de luces y sonido nos permiten crear un espectáculo teatral o circense ¿eso no es bueno? ¿No deseamos escuchar historias, o ver arte representado ante nosotros que nos inspire, nos conmueva, nos haga pensar o, simplemente, nos divierta? ¿Y eso no es bueno?

En mi opinión la respuesta es si, es un rotundo sí. 

Crear productos y servicios es crear riqueza, es crear bienes materiales o inmateriales que usamos las personas, que simplifican nuestra vida o que la hacen más agradable e incluso, en ocasiones, más digna. Y eso es bueno. Eso es muy bueno. Y utilizar tecnología producir esos productos y servicios de una manera eficiente, consumiendo el mínimo de recursos, es bueno, muy bueno.

¿Acaso no es precisamente ese alta productividad, esa alta riqueza, algo a lo que aspiran los países subdesarrollados o en vías de desarrollo, o los colectivos en riesgo de pobreza? ¿No es en el fondo, algo a lo que aspiramos al menos a mantener, los que tenemos el privilegio de vivir en sociedades económicamente desarrolladas?  

No sé en qué momento hemos renegado, o mejor, le hemos negado el título de 'bueno', o de 'bien', a algo que tanto nos ayuda, que tanto deseamos y que, de nuevo quizá de forma simplificada, he denominado el bien como acción económica.

Para mi, la productividad, la eficiencia, la riqueza son buenas, y usar la tecnología para ello también.


Dos salvedades: espíritu y externalidades negativas


Para que se entienda mejor, y para tener claro de qué estamos hablando, al menos de qué estoy hablando yo, hay que reconocer o avisar de dos hechos muy importantes.

Por una parte el factor espiritual. Lo que quiero dejar claro es que cuando apuesto como algo bueno por la productividades, por la riqueza y por la eficiencia, eso no quiere decir, bajo ningún concepto, que entienda que es lo único valioso, ni siquiera lo mas valioso. No se trata de un materialismo o de construir un altar al progreso a costa de cualquier cosa. No se trata de ignorar el valor de lo espiritual, de las relaciones y desarrollo humanos, de la potenciación de valores intangibles de conocimiento, amor o amistad o, eventualmente, religión. No, no excluyo todo eso, sólo digo que el progreso y la riqueza son buenos. Y usar la tecnología para conseguirlos, también.

El otro elemento a considerar son las externalidades negativas, es decir, efectos indeseados y negativos del uso de la tecnología. La externalidad negativa más representativa probablemente sea la de la contaminación o el impacto medioambiental. Pero pueden existir otras, incluyendo, quizá, el 'robo' de tiempo, la distracción, etc Si, el uso de tecnología, como casi cualquier otra cosa, puede traer estos efectos negativos, que en algún caso concreto nos pudiera hacer cuestionar la bondad de una tecnología, un producto, un proceso productivo, etc. Y quizá, el balance neto, riqueza vs externalidad negativa, aconsejase abandonar alguna tecnología.

Pero que el factor espiritual exista, y deba ser prioritario frente a ningún progreso, o el hecho de que la tecnología pueda traer consigo externalidades negativas, no elimina su carácter de esencialmente bueno- No olvidemos que, además, las externalidades negativas se pueden producir en escenarios de acción social. Un problema de la inteligencia artificial actual es su alto consumo energético y, por tanto su huella de carbono e impacto medioambiental. Si ahora usamos la inteligencia artificial para ayudar a un colectivo vulnerable, eso no elimina la huella de carbono, seguimos, por desgracia, teniendo externalidades negativas.  

Por tanto, de nuevo, que el factor espiritual exista y las externalidades negativas también, no descalifica de manera global a la tecnología como instrumento del bien, sólo nos avisa de que, en cada caso, debemos hacer un uso responsable de la misma, y teniendo claro qué valores priorizamos y qué impacto tiene.


Modelos para aplicar la tecnología para el bien (continuará)


¿Cómo concretar un uso ético de la tecnología? ¿Cómo asegurar que usamos realmente la tecnología para el bien?

La verdad es que pensaba hacer una propuesta en este mismo post, pero como veo que se me está alargando más de lo previsto, voy a posponerlo y, en un artículo continuación de éste, propondré algunos modelos que se me ocurren para llevar a cabo ese uso de la tecnología para el bien.


Conclusiones


Usar la tecnología para la acción social, para ayudar a colectivos vulnerables, para proporcionar una mejor atención social y sanitaría o para colaborar en la investigación científica son formas inspiradoras y muy elevadas del uso de la tecnología para el bien.

Pero usar la tecnología para producir bienes y servicios, para generar una riqueza que nos haga la vida más fácil y agradable es también bueno.

Sólo debemos tener en cuenta nuestras prioridades, que incluyen lo espiritual, y estar avisados de externalidades negativas y, uniendo todas las perspectivas, hacer un uso responsable.


jueves, 20 de febrero de 2025

IA generativa y la ventaja de los expertos y el conocimiento

Cuando vemos los grandes avances de la inteligencia artificial, muy especialmente la generativa, y cuando asombramos con sus grandes avances, su capacidad para sustituir al ser humano en tareas netamente cognitivas, de pensamiento y conocimiento, tareas que hasta hace no tanto pensábamos que eran exclusivas del ser humano, es justo hacerse preguntas, muchas preguntas.


¿El fin del pensamiento humano?


Cabe preguntarse, en efecto si, definitivamente, el conocimiento y capacidad de pensamiento humanos son habilidades en retroceso, si en un futuro ya muy próximo, las máquinas nos sustituirán a la hora de pensar y conocer y no necesitaremos hacerlo nosotros.

Cabe preguntarse si las futuras generaciones sabrán menos, conocerán menos, razonarán menos, porque lo hayan delegado todo en una inteligencia artificial cada vez más potente, más generalista y más accesible.

Incluso cabe preguntarse cómo nos afectará en el corto plazo.

¿El conocimiento o la capacidad de razonar han dejado de ser diferenciales? ¿Han dejado de ser valiosos? ¿Van a desaparecer, incluso?


Una pregunta sin respuesta


Para ser sincero, creo que son preguntas para las que, en el fondo, no tenemos una respuesta completa ni segura al menos a medio y largo plazo.

Pienso que sí, que algo nos afectará, que delegaremos en la inteligencia artificial cada vez más tareas cognitivas o de conocimiento. Que lo haremos de la misma forma que cada vez sabemos menos de un lugar a otro sin la ayuda de Google Maps, Waze o similares. De la misma forma que cada vez recordamos menos números de teléfono. De la misma forma que cada vez más, en lugar de buscar datos o informaciones en libros u otras personas, lo hacemos en un buscador, en un Perplexity o en un ChatGPT en una suerte de externalización de la que ya hablé en el post 'ChatGPT y la externalización de capacidades cognitivas. ¿Debemos preocuparnos?'.

Pero no tengo claro hasta dónde vamos a llegar en ello (calculo que bastante lejos) y, sobre todo, cómo nos va a afectar cognitivamente, a nuestra capacidad de pensar, razonar y recordar. 

Y tampoco tengo cien por cien claro qué debemos hacer en cuanto a educación y en cuanto a desarrollo personal pero, preventivamente, y también por vocación, prefiero seguir cuidando mi cerebro, mi conocimiento y mi capacidad de razonar.


Una luz de esperanza: la ventaja de los expertos


Pero, por si nos asusta la posibilidad de que el conocimiento y el 'expertise' se conviertan en irrelevantes, e incluso que desaparezcan, aquí traigo una pequeña lucecita de esperanza. Una lucecita que me he encontrado leyendo el recientemente publicado libro 'Superagency: What Could Possibly Go Right with Our AI Future' de Reid Hoffman y Greg Beato

En él hay un momento en que, hablando del uso de los LLM ('Large Language Models'), los autores mencionan a Ethan Mollick, profesor de Wharton y su post "Latent Expertise: Everyone is in R&D" en substack. Y de él extraen lo siguiente cita:


Experts thus have many advantages. They are better able to see through LLM errors and hallucinations; they are better judges of AI output in their area of interest; they are better able to instruct the AI to do the required job; and they have the opportunity for more trial and error. That lets them unlock the latent expertise within LLMs in ways that others could not.


Lo que Mollick nos dice es que sí, que el conocimiento sigue siendo valioso, que aunque se use un LLM (entiendo que está pensando básicamente en un chatbot basado en LLM), el conocimiento y la pericia de los expertos les permite extraer mucho más valor del LLM y detectar las posibles inconsistencias o alucinaciones de los modelos.

Creo, además, que va mucho más allá que esto va mucho más del mero uso de buenas técnicas de 'prompt engineering', creo que se refiere a conocimiento auténtico, de dominio científico, técnico o de lo que sea.

Una forma sencilla de comprobar esto, es usar una herramienta generativa orientada a imágenes como un Midjourney o un Stable Diffusion, o incluso una orientada a música como Suno. Personalmente he percibido cómo me siento de 'torpe' con estas herramientas, no por el uso en sí, que es casi tan sencillo y accesible como el de cualquier otra. Lo que me falta, en el caso de las imágenes, son conocimientos de arte, de diseño gráfico, de fotografía, de tratamiento de imágenes, de saber describir, de una forma precisa, lo que quiero obtener, casi diría, no sólo describirlo, sino saber qué quiero obtener realmente. Y lo mismo ocurre con la música: carezco de conocimientos musicales suficientes como para describir estilos musicales o técnicas que no conozco. Y por ello, de momento me contento con 'prompts' sencillos o con copiar 'prompts' cuyo resultado me gusta

De la misma forma, parece razonable pensar que, quizá, el 'expertise' es importante en el uso de los modelos de lenguaje.

Lo que no está tan claro es si, como se dice en el lenguaje de la estrategia empresarial, esa ventaja competitiva es sostenible a largo plazo o si sólo es un transitorio mientras la inteligencia artificial avanza más y más.


Conclusiones


La inteligencia artificial, en especial la generativa, desafía nuestro conocimiento y razonamiento y nos hace preguntarnos hasta qué punto ese conocimiento y razonamiento son valiosos y si lo seguirán siendo en el futuro. Y nos hace cuestionarnos sobre qué debemos hacer entonces con nuestra educación y nuestro desarrollo cognitivo.

A corto plazo parece que todavía, el conocimiento, el razonamiento y la experiencia, son cualidades valiosas y diferenciales.

A largo plazo, no lo veo tan claro pero, preventivamente y como opción, prefiero seguir cuidando y desarrollando mi mente, y aconsejaría al lector hacer lo mismo.


lunes, 17 de febrero de 2025

Una inteligencia diseñada

A veces las historias más o menos inspiradas de ciencia-ficción, a ratos los grandes avances técnicos, en ocasiones los espectaculares resultados o demostraciones, y las más de las veces la ignorancia, nos hacen arrojar sobre la inteligencia artificial unas expectativas desmedidas y, sobre todo, a fantasear e imaginar escenarios descabellados.

Y esas expectativas son a veces de tipo económico, de volúmenes de negocio acertados o no, el tiempo dirá. Pero con más frecuencia y menos acierto la, digamos, literatura técnica (aunque muchas veces no sea ni literatura ni técnica) o también algunas manifestaciones de una ética y responsabilidad mal entendidas, nos hacen imaginar y proclamar, e incluso temer, riesgos existenciales, máquinas con libre albedrío sobre las que perdemos el control, singularidades inminentes y, quizá, quizá, un ejército de modernos terminators a la vuelta de la esquina.


La inteligencia artificial como ingeniería


No está de mas recordar que la inteligencia artificial es tecnología, nada menos que tecnología, pero también nada más que tecnología, tecnología fundamentalmente software, aunque un hardware avanzado ayude mucho, como bien sabe Nvidia. Y una tecnología en que tiene muchísimo peso una ciencia básica como son las matemáticas.

Y, en ingeniería, se enfoca un problema, se analizan las opciones que nos ofrecen la ciencia y técnica y se busca una solución, una solución que funcione y que, en la medida de lo posible, sea eficiente y barata.


Diseño: el conocimiento y la intención


Ante se acometer la construcción de la solución se procede a su diseño, es decir a definir la forma en que se va a construir. Se diseñan procesos productivos, se diseñan máquinas, se diseñan algoritmos.

Si, los algoritmos se diseñan. Algunos algoritmos muy simples (no los de inteligencia artificial) se diseñan casi sobre la marcha, en una 'rápida pensada', pero los algoritmos avanzados como los de la inteligencia artificial, después de una gran, gran pensada, e incluso después de ensayar posibilidades y ver qué tal funcionan en realidad.

El diseño implica conocimiento e intención. Conocimiento de la ciencia y técnicas necesarias. Intención como objetivo, como búsqueda de un resultado. No se puede diseñar si no se sabe lo que se hace, sin los conocimientos necesarios del problema y las opciones científico-técnicas disponibles, y no se diseña al tuntún, sino con foco y objetivos.


Inteligencia artificial y diseño


Y, claro, los algoritmos de la inteligencia artificial están diseñados. Se basan en conocimiento, conocimiento sobre de matemáticas, estadística y computación. Y tienen intención, mucha intención.

Incluso, quizá sobre todo, los algoritmos de la inteligencia artificial generativa, aquellos que nos maravillan con sus resultados, su generalidad, su 'aparente humanidad'. están diseñados, fuertemente diseñados. No hay casualidad. Hay mucha intención y un tanto también de experimentación.

Aunque duro, por complejo y farragoso, es muy instructivo revisar el algoritmo, por ejemplo, de los transformers, la arquitectura inicialmente concebida en Google y que ha revolucionado los modelos de lenguaje y con ellos toda la inteligencia artificial.

No se trata, como quizá alguno se imagine, de un 'montón' de neuronas artificiales, todas interconectadas a las que se les muestran ejemplos y esperamos, sin más, que de una manera casi mágica, aprendan en un extraño y fantástico proceso de emergencia. Si eso fuese así, si realmente eso pudiese funcionar, a lo mejor sí que podrían aparecer fenómenos no previstos, quizá una sintiencia, quizá una consciencia, quizá un libre albedrío.

Pero no, no es así. Cada una de las capas de un transformer tiene un misión y una motivación. No son capas al azar a ver qué pasa. Son capas que han sido pensadas por un científico o un ingeniero, usando  conocimiento e intención. Son capas que, en fin, han sido diseñadas.


Implicaciones de una inteligencia diseñada


Decir que una inteligencia ha sido diseñada es decir que ha sido concebida e implementada por seres humanos.

Decir que ha sido diseñada quiere decir que se basa en conocimiento e intención.

Decir que ha sido diseñada es decir que no hay magia, salvo que consideremos magia, y eso sí que no sería muy desacertado, el ingenio humano y su capacidad para concebir nuevas ideas, en este caso nuevos algoritmos.

Decir que ha sido diseñada quiere decir que se basa en conocimiento y que, por tanto es fuertemente improbable, que pueda hacer algo que supere el conocimiento y entendimiento humanos. Y así, si no sabemos, que no lo sabemos, cómo funciona el cerebro humano, difícilmente lo vamos a emular en su totalidad. Si no sabemos, y no lo sabemos, en qué consiste la consciencia, mal la vamos a diseñar. Si no sabemos, y no lo sabemos, cómo opera el libre albedrío, difícilmente lo vamos a convertir en algoritmo.

Decir que ha sido diseñada quiere decir que tiene intención, que el resultado no tiene voluntad propia, que no es algo casual o fuera de control, que ha sido buscado conscientemente.


Retos para el futuro de una inteligencia diseñada


Si la inteligencia artificial es una inteligencia diseñada, si se basa en el conocimiento y la intención, nos reta de dos formas pensando en el futuro.

Reta nuestro conocimiento, qué más seremos capaces de descubrir, que nuevas posibilidades científicas o técnicas crearemos, qué nueva capacidades adquiriremos, qué nuevos conocimientos atesoraremos.

Y reta nuestra intención, qué objetivos querremos alcanzar con la inteligencia artificial, para qué la querremos utilizar y si seremos capaces de ser responsables y éticos en esas aspiraciones. 


Conclusiones


La inteligencia artificial es una forma de ingeniería, y por tanto, una disciplina donde el diseño juega un papel fundamental. Y el diseño necesita de conocimientos e implica intención. 

Ser conscientes de que se trata de una ingeniería y de un diseño, nos debería hacer abandonar fantasías e imaginaciones.

Ser conscientes de que se trata de una ingeniería y un diseño implica un canto a la inteligencia humana y su capacidad de imaginar, concebir e implementar.

Ser conscientes de que se trata de una ingeniería y un diseño, implica que precisa conocimientos, y nos reta a seguir avanzando, a seguir creciendo, a seguir aprendiendo.

Ser conscientes de que se trata de una ingeniería y un diseño, implica que sigue una intención, y por tanto nos reta a la ética y a la responsabilidad y a buscar en la inteligencia artificial todo aquello, y es muchísimo, y sólo aquello, en que puede ayudar a la humanidad.


viernes, 7 de febrero de 2025

La hibridación de los robots software: agentes frente a RPA y robots conversacionales

En el post anterior de este blog, hablaba del nacimiento de una nueva especie robótica, un nuevo tipo de robots software: los agentes de la Agentic AI

Le pongo el apellido 'de Agentic AI' a la espera de que la industria genere algún nuevo nombre, porque el término agente, como expliqué en ese último post, es demasiado genérico y denomina a muchos entes ya existentes incluyendo a las propias personas.

En este artículo pretendo mostrar cómo, desde un punto de vista funcional, no tanto tecnológico, estos agentes, al menos lo que de ellos se nos ha mostrado hasta la fecha, son una suerte de hibridación y evolución de las dos especies de robótica software anteriores: los robots RPA y los robots conversacionales.

Esas dos especies robóticas, robots RPA y robots conversacionales o chatbots, son las que yo identificaba y explicaba en mi libro 'Robots en la sombra'.

Antes de hablar los agentes, pues, recordemos brevemente las ideas principales sobre robots RPA y robots conversacionales.


Los robots RPA


Esquematizo la idea de RPA en la siguiente figura


Robots RPA


Los robots RPA ('Robotic Process Automation') son un tipo de módulos software orientados a interaccionar con recursos IT ya existentes, tanto en la propia empresa como en Internet. Entre esos recursos se encuentran las aplicaciones (a las que acceden ya sea vía conectores o interactuando directamente con su interfaz de usuarios) los documentos recogidos en todo tipo de ficheros, y otros recursos y protocolos con que se interactúa fundamentalmente usando APIs y conectores.

En ese sentido, los robots RPA suelen automatizar orquestando recursos digitales ya existentes, coordinando lecturas, escrituras y solicitud de acciones. 

La lógica de estos robots se basa en reglas, o mejor, en flujos o workflows que define el desarrollador... en tiempo de desarrollo.


Los robots conversacionales


Por su parte, los robots conversacionales, fundamentalmente los chatbots y voicebots tradicionales se ajustan a la siguiente figura:


Robots conversacionales tradicionales

Para los robots conversacionales, su entorno natural son las personas, ya que están diseñados, precisamente, para una interacción natural con ellas mediante conversaciones. En ese sentido, suelen actuar como front-end de una aplicación o de un conjunto de ellas de las que obtienen información o a las que solicitan acciones. Por eso, aunque su entorno principal son las personas, interaccionan también, un poco en back-office, con aplicaciones y recursos haciendo uso, al igual que los robots RPA, de conectores y APIs.

Presentan en su entrada capacidades de procesamiento de voz y lenguaje natural que son entrenadas, en realidad ajustadas, en tiempo de desarrollo, para reconocer intenciones y entidades en lo que el usuario transmite. A partir de ahí, las respuestas y la interacción con el back-office se define con base en reglas claras y en tiempo de desarrollo. 

El planteamiento de los chatbots y su construcción cambia con la llegada de los chatbots basados en modelos generativos, pero prefiero dejar como está la descripción de los robots conversacionales, en parte por claridad de discurso, pero en parte también porque podría no ser descabellado considerar un chatbot basado en modelo generativo como una forma muy simple, quizá un poco degradada, de agente.


¿Y qué son los agentes?


Y llegamos a los agentes.

Los agentes (los de la Agentic AI, me refiero) son módulos software cuyo 'cerebro', por decirlo de alguna manera, es un modelo generativo (podríamos decir que un gran modelo de lenguaje, pero creo que el nombre empieza a resultar inadecuado dada su misión y su probable evolución tecnológica). 

Siguen siendo módulos software autónomos (como los anteriores), y por tanto robots software, en mi opinión. La gran diferencia, la grandísima diferencia, es que ellos mismos deciden la lógica de actuación y lo hacen en tiempo de ejecución, no en tiempo de desarrollo.

Los agentes reciben una solicitud o indicación mediante un prompt que les fija un objetivo y, a partir de ahí, deducen ellos mismos, o al menos esa es la promesa, las acciones a llevar a cabo... y las ejecutan, hasta conseguir los resultados deseados.

Aunque todavía son una idea naciente y que debe evolucionar, concretarse y consolidarse, podemos hacernos una idea de 'por dónde van los tiros', viendo este vídeo reciente de OpenAI mostrando su 'Operator'.



Vemos que el usuario hace una petición de viva voz al agente (y por tanto genera un prompt) lo que quiere y, a partir de ahí, el agente decide lo que tiene que hacer y, en ese lo que tiene que hacer se incluye interaccionar con sitios web a través de sus pantallas. Es decir, el agente interacciona con una persona pero, además, interacciona con aplicaciones.

Yendo ligeramente más allá de lo que se ve en esta demostración, pero reflejando algunas cosas que ya se hacen en frameworks como LangChain y alguna evolución casi evidente y que creo que inminente, el esquema de un agente de la Agentic AI como el que se ve en el vídeo podría ser el ue se muestra en la figura:

Agente

Respecto a lo que se ve en el vídeo, esta figura añade la posibilidad de interactuar con ficheros y la invocación a conectores y APIs, pero no tengo ninguna duda de que, si eso no está disponible ya, lo estará prontísimo, tanto por su utilidad como porque tecnológicamente no supone un desafío ni dificultad adicionales.


Agentic AI como hibridación y evolución de RPA y robots conversacionales


La figura anterior en que esquematizo la idea de un agente, se parece mucho a la que utilizo para RPA o para robots conversacionales. Y eso no es casual. Es intencionado para mostrar los paralelismos que, para mí, son evidentes.

De hecho, para cualquiera que sea conocedor de RPA, lo que muestra la demostración de Operator recuerda muchísimo a RPA, casi lo podríamos considerar RPA: ese interactuar con pantallas de aplicaciones para obtener datos y pedir acciones es lo que supuso el nacimiento de RPA como tipología de solución diferenciada, y lo que todavía hoy en día más la caracteriza, aunque no necesariamente sea como más su utiliza.  Si a eso le añadimos el trabajo con ficheros y el uso de conectores y APIs, tendríamos lo mismo que RPA

Y, es evidente, que estos agentes pueden, si así se desea (aunque es muy probable que en muchas realizaciones prácticas no se utilice) interactuar con usuarios, con personas, mediante texto o de viva voz...de la misma manera que que hacen los robots conversacionales y como se muestra en el video.

Es por ello que considero que los agentes de la Agentic AI no es sólo que sean robots software es que reúnen y fusionan las capacidades de RPA y de los robots conversacionales, las dos 'especies' anteriores, como se ve en la figura que ya auna las tres figuras de cada una de las especies de robot software.


Las tres especies de robot software

La diferencia, la gran diferencia, tanto para lo bueno como para lo malo, frente al caso del RPA que hemos tenido hasta ahora, y a los robots conversacionales que han dominado el panorama hasta la aparición de los chatbots generativos, está en el 'cerebro' y en la lógica de actuación de los agentes.

En el caso de los robots RPA hablamos de flujos o workflows definidos por un desarrollador. Aunque es cierto que hoy en día se pueden enriquecer con elementos de inteligencia artificial y de decisión en tiempo de ejecución, en esencia se basan en reglas y flujos conocidos y establecidos en tiempo de desarrollo.

En el caso de los robots conversacionales tradicionales, aunque interviene un poco de inteligencia artificial en la entrada, a partir de ahí trabajamos con reglas y lógicas definidas por el desarrollador y también en tiempo de desarrollo.

Sin embargo, los agentes, que se basan en modelos generativos, no sólo es que generen una respuesta textual o de voz no predefinida sino que, muchísimo más importante, define el plan de acción de manera autónoma y en tiempo de ejecución. Por decirlo de alguna forma, son muchísimo más inteligentes y mucho más autónomos. Al menos esa es la promesa.


El arma de doble filo


Si los agentes 'cumplen su promesa', si están a la altura no de lo que ya se puede hacer con LangChain hoy en día sino que realmente son capaces de crear planes de actuación de manera autónoma como se muestra en el vídeo y en lo que se está publicando, las posibilidades son inmensas, casi revolucionarias.

Sin embargo, hablo de un arma de doble filo porque, en según qué entornos, por ejemplo la automatización industrial o procesos uniformes y masivos, podemos preferir las reglas claras, conocidas y predecibles de los robots y sistemas tradicionales, antes que unos planes que podrían hacer cosas extrañas (la versión de 'alucinación' llevada a un plan de acción), inesperadas o poco eficientes

Habrá que, por un lado, ver lo que los agentes sean capaces de ofrecer realmente, y por otro aplicar el sentido común.


Conclusiones


Creo haber mostrado, no sólo que los agentes de la Agentic AI son un tipo de robot software sino que, además, al menos en lo que se está prometiendo, aúnan las capacidades tanto de RPA como de robots conversacionales, pero de una forma mucho más inteligente y autónoma y, eso sí, algo más impredecible.

Va a ser interesantísimo ver a dónde se llega realmente en las próximas semanas y meses.


miércoles, 5 de febrero de 2025

Una nueva especie robótica: los agentes

El título puede parecer, la verdad, algo grandilocuente, pero tras algunas semanas pensando en ello, y tras haberlo adelantado en alguna charla y clase, creo poder afirmar que estamos atendiendo al nacimiento de una nueva especie robótica, entendiendo como tal a un nuevo tipo de entidades a las que se le puede aplicar el calificativo de 'robot'.

Me refiero a la AgenticAI y, claro, a los módulos que la tangibilizan: los así denominados  agentes.

Y digo que ha nacido una nueva especie robótica pero, además, y según consultoras como Gartner, y según el típico 'hype' tecnológico, ha nacido también una estrella, aunque este último extremo, el estrellato, los logros reales que puedan alcanzar estos agentes, las capacidades reales que puedan lograr, y su impacto real en el mercado y la sociedad aún está por demostrar... una demostración o refutación que creo que veremos este mismo año, y, caso de tratarse de un éxito, seguramente en el primer semestre.

Pero antes de comentar algo más, vamos a ver de qué hablamos cuando hablamos de robot.


Recordando lo que es un robot


Como diría 'el otro', el concepto de robot es un concepto discutido y discutible. No hay una definición abarcadora, y a la vez, aceptada, de lo que es un robot. Y hemos aplicado históricamente el nombre de robot a entidades artificiales bastante diferenciadas.

Comenté los conceptos de robot en uno de los primeros vídeos de mi proyecto 'The robot notes'. En concreto, en el siguiente vídeo expongo algunas de las concepciones y definiciones existentes.




Y seleccionando la concepción que mejor explica la esencia de un robot, hablaba tanto en el vídeo como en mi libro 'Robots en la sombra' de los agentes inteligentes, una idea que se ilustra en la siguiente figura extraída de mi libro.



Un agente, un robot si llega el caso, sería una entidad que se comunica con el exterior, con el entorno obteniendo información del mismo mediante alguna forma de sensores para, a continuación, y con base en sus objetivos, seleccionar las acciones más convenientes y trasladarlas a ese entorno mediante actuadores.

Es muy importante esa relación con el entorno, incluyendo esa capacidad de actuar sobre el mismo mediante actuadores que es lo que le confiere esa naturaleza de agente, puesto que agente significa aquello que hace, que actúa. La inteligencia, que no necesariamente implica sofisticación ni el uso de inteligencia artificial, supone la coherencia entre la situación del entorno, según se percibe por los sensores, con las acciones efectuadas conforme a los objetivos del agente.

Para que un agente sea un robot, aparte de la caracterización propia como agente, se precisa, evidentemente, que se trate de una entidad artificial (un ser humano es también un agente, pero no un robot).


El debate sobre si el software puede ser un robot


Para muchos autores e instituciones, además, el robot debe tratarse de un ente con realidad física, con cuerpo y, de hecho, esa corporeidad, ese 'embodyment', tiene serias implicaciones, incluidas las éticas, en sus resultados y condicionantes. 

Sin embargo, dentro del término 'robot' se mencionan con frecuencia agentes que son esencialmente lógicos o, por entendernos, software.

En mi libro 'Robots en la sombra', que habla de robots software, explico que, por un lado, los robots que denominados software, realmente si que tienen un 'cuerpo', lo que ocurre es que, en lugar de tratarse de un cuerpo físico especializado, se trata de un hardware de propósito general, típicamente un ordenador o un smartphone y que, además, el entorno con el que interactúan es especial puesto que, con frecuencia, es un entorno digital, no físico.

Intentando identificar las características de los robots en general, incluyendo los que denominamos robots software, llegaba a una propuesta de seis características, a saber:


  • Artificiales
  • Adaptables
  • Actuadores sobre su entorno
  • Autónomos
  • Sustitutivos de personas
  • Similares a personas


Algunas de estas características, como la de la artificialidad, parecen indiscutibles. Más laxas y discutibles son, sin embargo, las que hacen mención al papel sustitutivo de personas o su similitud pero que son muy relevantes en el caso de los robots software. Y también hay que reconocer que se aplica muy comúnmente y sin casi discusión término robot a entes que, por su falta de autonomía, e incluso de inteligencia, cabría excluir de la idea de robot, como son los así llamados robots quirúrgicos.

El tema da para mucho debate, pero lo voy a dejar ahí.

Sólo decir, antes de conocer a la nueva especie robótica, que en mi libro hablaba de dos familias o especies de robots software: los robots RPA ('Robotic Process Automation') por un lado, y los robots conversacionales, o chatbots para simplificar, por otro.


Los agentes de la AgenticAI como robots


Bueno, pues creo que ahora hay que unir una tercera especie o familia: los agentes de la denominada 'AgenticAI'. El propio nombre ya nos avisa: estamos hablando de agentes.

En efecto, se trata de unos módulos software, regidos, en este caso, por un 'cerebro' basado en modelos generativos de inteligencia artificial. Se trata de unos módulos que también perciben un entorno (aunque un entorno especial) y que generan acciones sobre él. Y se trata de unos módulos en que las actuaciones son coherentes con el estado del entorno y los objetivos del módulo. El término agente, pues, es absolutamente apropiado para estos módulos,  aunque quizá resulte desafortunado que se apropien de es término que es muy anterior a la existencia de estos nuevos robots, y que es aplicable a otras muchas entidades. En cualquier caso, sí que son agentes y agentes inteligentes.

Y cumplen las seis condiciones que en mi libro 'Robots en la sombra', atribuía a los robots en general, y a los robots software en particular: son artificiales, adaptables, actuadores sobre su entorno, autónomos, sustitutivos de personas y, en cierto sentido, similares en su comportamiento a ellas. Son, por tanto, robots, robots software.

En algún próximo artículo, intentaré explicar que, no sólo es que se trate de robots software, es que, además, y según se ve en sus primeras realizaciones, tienen importantes solapes con las dos anteriores especies robóticas software que había identificado: los robots RPA y los robots conversacionales, convirtiéndose en una suerte de evolución, e incluso convergencia, de sus 'antepasados' robóticos.


Conclusiones


A despecho del debate existente, y justificado en realidad, acerca de lo que realmente significa el término 'robot' y del otro debate, también existente y también justificado, acerca de si un robot software es realmente un robot, creo que, si sigo mi propia doctrina respecto a lo que es un robot, estamos asistiendo al nacimiento de una nueva especie robótica: los agentes de la AgenticAI.

Una especie 'joven' y que habrá que ir viendo cómo se desarrolla. 

Todo apunta a que tendremos muchos noticias al respecto en las próximos meses e incluso semanas.


martes, 4 de febrero de 2025

Notas sobre aprendizaje por refuerzo (y XV): meta aprendizaje

Y con este post voy a poner fin ya a esta larga serie de artículos sobre aprendizaje por refuerzo, una serie inspirada y guiada por los contenidos del libro 'Deep reinforcement learning' de Aske Plaat

En este último artículo hablaremos del meta aprendizaje.

Pero antes de entrar en materia, como siempre en la serie, repasemos brevemente lo visto en los posts anteriores.


Recordatorio: lo que hemos visto de aprendizaje por refuerzo


El esquema que nos ha guiado durante toda la serie, ha sido el expresado en la siguiente figura que, a estas alturas, y si has seguido la serie, debería resultarte muy familiar:


Nos ocupamos inicialmente de la situación de un agente que interactúa con un entorno que se encuentra en un estado s. Sobre ese entorno, el agente aplica unas acciones, a, como consecuencia de las cuales, el entorno puede experimentar una transición y cambiar de estado, pasando del estado s al s', y el agente recibe una recompensa r. El agente decide la acción a aplicar en cada momento, siguiendo una política π y su objetivo es maximizar la recompensa obtenida lo largo de una secuencia o trayectoria.

Los métodos más básicos, aquellos en que el espacio de estado es reducido, siguen, decíamos, un enfoque tabular, en que se tabulan, de ahí el nombre, los posibles estados y para ellos se calculan unas funciones que nos dan el valor, Q, de la recompensa esperada. Cuando la dimensión del espacio de estados es muy alta, como sucede habitualmente en problemas reales, dejan de tener sentido estos métodos tabulares así que renunciamos a representar la situación del entorno mediante su estado, y a cambio lo representamos mediante unas características ('features') y la obtención de valores o acciones vienen a ser unas funciones con base en esas características e implementadas mediante redes neuronales profundas, dando lugar al 'deep reinforcement learning'.

Cuando tratamos problemas ya no de alta dimensionalidad, sino continuos, como es la locomoción de robots, se adoptan los denominados métodos basados en políticas en que se prescinde de la visión de valores, y se trabaja directamente en optimizar las políticas, que pasan a considerarse como estocásticas, es decir, como distribuciones de probabilidad. 

También aparecía como opción el denominado aprendizaje basado en modelos ('model-based'), en que el agente primero consigue un modelo del entorno y luego ya prescinde del entorno propiamente dicho par a trabajar con ese modelo local durante todo el entrenamiento.

Hasta aquí estábamos en la situación de trabajar con un único agente.

Posteriormente vimos el caso en que teníamos dos agentes, exactamente dos y que se encontraban en una situación competitiva, en uno de los denominados juegos de suma cero en que la ganancia de un agente supone la perdida del otro. En esa situación, una opción habitual era trabajar con el aprendizaje basado en modelos, dado que, para un agente, el entorno está constituido por el otro agente, y se adopta la hipótesis razonable de que su política, la del otro agente, es igual a la nuestra, por lo que modelamos el entorno con el modelo de nuestra propia política. 

Eso, además, conducía a la posibilidad del autoaprendizaje o auto-juego ('self-play'), en que un agente aprende jugando, en el fondo, contra sí mismo (contra otro agente con la misma política, en realidad). Vimos que mediante los problemas mono-agente, se podían tratar problemas como la locomoción de robots, la búsqueda de rutas o videojuegos. 

Luego exploramos la situación multi-agente, en los cuales no sólo se produce una competición sino también una colaboración entre agentes y un campo del que decíamos se encontraba fundamentalmente en investigación.

Y, finalmente, en el post previo a éste hablamos brevemente de aprendizaje jerárquico, en el que se divide un problema complejo en sub-problemas más gestionables, lo que aumenta nuestra potencia de resolución de problemas complejos y proporciona un esquema más robusto y reutilizable. A cambio, existe el riesgo cierto de no alcanzar soluciones óptimas a nivel global porque, durante el proceso optimizamos la resolución de los sub-problemas pero no tanto el problema en su conjunto.


Reutilizando el conocimiento


La idea principal que subyace al meta aprendizaje es la reutilización de lo ya aprendido. Y eso, en parte, por una inspiración en cómo funciona el conocimiento humano, en que un nuevo conocimiento se apoya en el anterior, y, por otro lado, por una mera necesidad de eficiencia, de reducir lo máximo posibles las necesidades de entrenamiento de los algoritmos, una labor lenta y muy consumidora de tiempo, datos y energía.

En esta intención, nos encontramos con dos conceptos que, en el fondo, se parecen: la transferencia de aprendizaje, o 'transfer learning' y el meta aprendizaje o 'meta learning' propiamente dicho


Transferencia de aprendizaje (transfer learning)


Uno de los problemas del machine learning tradicional es que, cada vez que se quería entrenar un algoritmo o un modelo, se partía de cero, es decir, es como si, aunque ya dispusiésemos de un modelo con un cierto conocimiento, como si eso no valiese y hubiera que desaprenderlo todo para volver a empezar a aprender desde la base: había que, quizá, rediseñar los hiperparámetros de la, por ejemplo, red neuronal, había tomar un nuevo conjunto de datos de entrenamiento, dedicar el tiempo y la computación necesaria para realizar ese entrenamiento y utilizando los conjuntos de datos de prueba, testear y validar el modelo.

Es como si, aplicando la popular expresión, 'no hubiésemos aprendido nada'.

Esa estrategia, aparte de que intuitivamente contradice la forma de aprender humana, era económica y operativamente muy ineficiente.

Hablo en pasado, no porque sea un problema completamente superado, que no lo es, pero sí porque ya existen muchas vías de reutilización del conocimiento en los modelos de machine learning: lo que se conoce como transferencia de conocimiento o 'transfer learning'.

Así, por ejemplo, es sabido que, en el caso de las redes neuronales de convolución aplicadas a visión artificial, las primeras capas, por decirlo de alguna manera, se especializan en detectar ciertas características genéricas de las imágenes como bordes o esquinas, y que son las capas finales, en ocasiones capas densas de tipo perceptrón multicapa, las que proporcionan el resultado final. En este ámbito ya se ha experimentado con éxito con el entrenamiento de capas de convolución en una especie de 'visión general', que luego se utiliza en otros modelos más especializados que se reeentrenan pero en menor media o que añaden, por ejemplo, algunas capas adicionales.

En general este tipo de técnicas se aplican en redes neuronales profundas ('deep learning') y la forma de hacer el transfer learning es, por decirlo de alguna manera, transferir la red neuronal, con sus hiperparámetros (ej. número de capas o número de neuronas por capa) ya definidos y con los pesos (los parámetros) ya ajustados mediante el pre-entrenamiento.

En cierto sentido, ese transfer learning se ha elevado a una altísima expresión en los modelos generativos, como los GPT (no en vano, la P de GPT significa pre-trained) y en los denominados modelos fundacionales, unos modelos que están pre-entrenados por los grandes del sector como OpenAI pero que luego pueden ser especializados mediante 'fine tunning' o incluso, en otro tipo de estrategias, personalizados mediante interacción con el usuario a través de la incorporación de contenido aportado por un buscador o mediante las técnicas de RAG ('Retrieval Augmented Generation').


Meta aprendizaje ('meta learning')


En cierto sentido, el meta aprendizaje es una generalización del 'transfer learning'. Si en el transfer learning lo que pretendemos es transferir el conocimiento de una tarea concreta (por ejemplo una tarea de visión), lo que pretendemos con el meta aprendizaje es transferir el conocimiento de varias tareas (recogido sobre todo en hiperparámetros) para que el modelo o algoritmo resultante sepa como aprender una nueva tarea. Atención que hemos dicho que sepa aprender, no que sepa cómo hacer una nueva tarea, sino cómo aprender a hacerla, de ahí que hablemos de meta aprendizaje (aprender a aprender).

Eso, llevado a las redes neuronales del deep learning, lo que quiere decir es que, lo que transferimos en meta aprendizaje son más los hiperparámetros de la red (que definen su arquitectura y funcionamiento base) que los parámetros propiamente dichos (que reflejan de alguna forma el conocimiento adquirido), precisamente por la estrategia de aprender a aprender, más que de 'venir aprendido'.

Todavía se trata de un área de investigación pero existen ya varios algoritmos y entornos en funcionamiento. Entre los algoritmos, la fuente bibliográfica en que me baso menciona, por ejemplo, RecurrentML, Meta Network,  SNAIL, MAML y unos cuantos más. También proporciona algunos detalles matemáticos de este tipo de algoritmos pero no voy a entrar en esos detalles.


Conclusiones


Como podemos ver, algunos de los enfoques más avanzados en el campo del machine learning y sobre todo del deep learning es ver cómo podemos reutilizar conocimiento, al igual que hacen los humanos, para construir nuevo conocimiento o nuevas capacidades incluyendo ese aprender a aprender que parece un gran objetivo final.


***


Aunque, evidentemente, hay mucho más que decir, y seguro que mas que habrá en el futuro, de momento cierro esta larga serie (quince artículos) que he dedicado al aprendiza por refuerzo. No quiere decir que no vaya a tocar este campo de nuevo, sino que, caso de hacerlo, será ya, seguramente, como un post regular y probablemente apoyado en otras fuentes bibliográficas u otras reflexiones.


Artículos de este blog relacionados