lunes, 24 de junio de 2024

Los requisitos 3H para una inteligencia artificial segura

En el desarrollo de la inteligencia artificial, aparte de los objetivos técnicos y de negocio, que creo perfectamente lógicos, admisibles e incluso loables, se busca también su, digamos, conformidad ética, y la seguridad para las personas ('AI safety').

Aunque muchas son las derivadas y complejidades que conseguir esa seguridad pueda tener, me he encontrado recientemente un esquema muy sencillo, que es el que quisiera comentar en este breve post.


El aprendizaje de ChatGPT y el alineamiento con las necesidades del usuario


En concreto, leyendo el libro coral, 'Introduction to digital humanism' me topo con un capítulo, el titulado 'A short introduction to Artificial Intellligence : methods, success stories and current limitations' firmado por Clemens Heitzinger y Stefan Woltran, algo más técnico que lo que he visto hasta el momento en el resto del libro.

En ese capítulo, repasando los diferentes mecanismos de aprendizaje (supervisado, no supervisado, por refuerzo) llegan al final a hablar, como casi es inevitable, de ChatGPT y de su mecanismo RLHF ('Reinforcement Learning with Human Feedback') o aprendizaje por refuerzo con realimentación humana descrito en 'Training language models to follow instructions with human feedback' un mecanismo en que, como feedback humano, se aporta una ordenación de cuatro respuestas a un promt. Según nos dicen los autores, con esto lo que se busca es alinear el modelo del lenguaje a las necesidades del usuario.


El modelo 3H de necesidades del usuario


A la hora de hablar de esas necesidades del usuario, los autores, y citando ahora el artículo GPT-4 Technical report nos hablan del modelo 3H, un modelo muy sencillito en que se entiende que lo que espera el usuario de una herramienta, en este caso ChatGPT es que sea:


  • Honest (honesta): respuestas correctas y honestas

  • Helpful (útil): respuestas útiles y que sirvan de ayuda

  • Harmless (no dañina): es decir, el sistema no debiera dar respuestas que puedan hacer daño de alguna manera.

De estas tres características, entiendo que la segunda, la utilidad, es un objetivo mucho más de tipo práctico, casi evidente, y es la honestidad y el no hacer daño lo que conecta esta propuesta con la ética, aunque dentro de la honestidad también se incluye la corrección de la respuesta, lo cual lo podríamos entender como un objetivo práctico e incluso técnico, más que ético o de seguridad.

Se trata, como vemos, de un esquema muy sencillo de enunciar (por supuesto, no tanto de conseguir) pero, según los autores, casi todo el trabajo actual en seguridad de la inteligencia artificial ('AI safety') se basa en satisfacer esas tres H.

Conclusiones


Vemos en este modelo de las tres H, quizá un planteamiento muy simple, pero a pesar de todo, apuntando en la buena dirección. 

Por lo demás, y aunque sea a modo de 'subproducto' de esta discusión, creo que vale la pena la lectura, aunque sea bastante técnica, de los informes de OpenAI que ponen mucho foco, precisamente, en los aspectos éticos y de seguridad. 


lunes, 17 de junio de 2024

La sorprendentemente sencilla adopción de la inteligencia artificial

Recientemente he finalizado la lectura del libro 'Microsoft Copilot: Mastering the AI Revolution in Office 365, Strategies for Innovation, Knowledge and Lifelong Learning' de Bryan J. Silva, un libro bastante limitado, la verdad (quizá por el demasiado cercano lanzamiento de Copilot), y de donde he sacado poco en limpio pero donde, sin embargo, y bastante al final, he visto algo que me ha hecho pensar y que motiva este post.

Bastante avanzado el libro, como digo, se expone brevemente la viabilidad de integrar scripts o modelos desarrollados en Python con Copilot 365. En el fondo, no es nada demasiado sorprendente. Sin embargo, me hizo pensar en lo potente que es esta integración y, yendo algo más allá, lo fácil que resulta hoy en día la adopción de la inteligencia artificial, tanto para incluirla en otro tipo de sistemas como para su uso directamente por personas.


Reflexión previa: nuestra incapacidad para sorprendernos con la tecnología


Antes, me gustaría hacer una breve reflexión previa. Y es una reflexión sobre nuestra relativa incapacidad para asombrarnos con los avances de la tecnología, en este caso con la inteligencia artificial.

Parece como que, de alguna forma, nos hubiésemos acostumbrado a que la tecnología nos aporte cosas que, no tanto antes, hubiésemos considerado 'alucinantes' o, como diría Arthur Clarke, 'indistinguibles de la magia'. En cierto modo ocurrió con Internet, ocurrió también con las redes sociales (asombrosas no tanto por su funcionalidad como por su escalabilidad), ocurrió con el smartphone y el internet móvil y creo que ahora ocurre con la inteligencia artificial en sus múltiples facetas.

No sé si esta incapacidad para el asombro es buena o mala. Entiendo que es un buen síntoma porque, si nos acostumbramos, es porque empieza a ser 'normal' que la tecnología avance a toda velocidad. Y eso es bueno. 

Pero, síntoma aparte, no estoy seguro de si es bueno de que no seamos conscientes de esos cambios y de lo transformadores, y muchas veces maravillosos que resultan.

No estoy seguro, pero no sé si esa incapacidad para el asombro nos puede restar capacidad para su adecuada gestión de todo tipo: técnica, económica, social y ética. O si, incluso, puede ser síntoma de algo que sería negativo: una cierta pasividad e incluso hastío casi existencial, que pudiera conducir, incluso, a problemas psicológicos.

Pero dejo aquí, bastante abierto la verdad, este excurso para entrar en lo que realmente era el tema de este post: la facilidad de adopción de la inteligencia artificial.


Una doble facilidad de adopción


Planteo esa facilidad de adopción con una doble cara.

Por un lado, y desde un punto de vista más técnico, lo sencillo que resulta incorporar capacidades, algoritmos y modelos de inteligencia artificial en todo tipo de sistemas y soluciones, sean estos en modo de sistema empresariales (ERP, CRM, SCM, HCM, etc), soluciones de RPA, soluciones BPMS o incluso soluciones a medida.

Por otro, la facilidad de uso por los usuarios, por las personas.


Una valiosísima y crucial herencia


Lo cierto es que, comenzando por el lado técnico, la actual facilidad de adopción de la inteligencia artificial se apoya en otro tipo de soluciones y planteamientos, ajenos y previos en general al auge actual de la inteligencia artificial y que, en el fondo, también se podrían utilizar para ayudar en la adopción de muchas otras tecnologías.

Comenzaría por algo que lleva ya muchísimos años entre nosotros, como es el planteamiento SOA ('Service Oriented Architecture') que ya hace muchos años nos mostró el camino para organizar la lógica de nuestros sistemas y soluciones en modo de componentes y, sobre todo, de servicios de negocio, unos componentes autocontenidos y de bajo acoplamiento que, además, se exponen hacia el exterior mediante una serie de servicios bien delimitados.

Acompañando y concretando la propuesta SOA, el desarrollo, generalización e implantación del concepto de API ('Application Programing Interface'), con especial relevancia hoy en día en las interfaces tipo Web Service y, sobre todo, hoy en día, REST.

Aunque no es una tecnología en sí misma, pero sí un planteamiento, destacaría también el muy extendido uso del concepto de conector que, en forma nativa, disponibiliza esas APIs para soluciones fundamentalmente basadas en filosofía 'low-code', y que simplifican enormemente el desarrollo de las integraciones.

Y como 'guinda del pastel', la expansión de la filosofía cloud computing, no sólo para alojamiento o virtualizacion de servidores, sino, sobre todo, para el ofrecimiento de servicios precisamente basados en APIs. Todo ello potenciado por la existencia de los denominados hiperescaladores (Amazon, Microsoft, Google,...) que disponibilizan, de forma tremendamente escalable y ubicua, ese tipo de servicios.

Algunas de estas tecnologías y planteamientos, para el lector que no las conozca, merecerían una explicación, pero no voy a entrar en ella para no alargarme en exceso.

Y algunas de estas tecnologías y planteamiento pueden resultar alejadas del foco mediático actual (aunque lo estuvieron en su momento), quizá incluso parecer, erróneamente, algo 'viejunas' y pasadas de moda, pero, sin embargo, son absolutamente clave y de plena actualidad, si no mediática, sí tecnológica y práctica.


La sencillez de la integración de componentes de inteligencia artificial


La multiplicación de APIs y conectores, en este caso recubriendo servicios de inteligencia artificial y con frecuencia en la nube (especialmente la nube de los hiperescaladores o grandes actores de la inteligencia artificial), y la enorme facilidad para integrar, mediante conectores o uso directo de APIS, esos componentes y servicios en otras soluciones, unida a la proliferación de herramientas 'low-code' que apenas exigen conocimientos de programación para desarrollar soluciones incluyendo integraciones, hace tremendamente simple la inclusión de capacidades de inteligencia artificial en todo tipo de soluciones y es un factor que favorece enormemente su adopción en empresas y administraciones.


La facilidad de uso de la inteligencia artificial


Pensando ya no tanto en la inclusión de capacidades en nuevas soluciones y sistemas, sino en su adopción por las personas, en el trabajo y el ámbito privado, cabe destacar el enorme avance que supone el haber conseguido interfaces conversacionales basadas en voz y lenguaje natural muy eficaces en el tratamiento de esa voz y los 'significados' del lenguaje.

Esto hace que muchas aplicaciones, tanto de inteligencia artificial como de otro tipo, resulten absolutamente naturales en su utilización. eliminando curvas de aprendizaje que traen consigo otro tipo de interfaces (comandos, ventanas, etc) y facilitando la llegada masiva, como así está siendo, de la inteligencia artificial a las personas, a los profesionales y los ciudadanos en general.


Conclusiones


De alguna manera, la inteligencia artificial actual es heredera de los buenos planteamientos que se han venido haciendo desde hace años e incluso décadas en el ámbito de las tecnologías de la información e interfaces de usuario. Y la confluencia de los avances específicos en inteligencia artificial con esos planteamientos, no brinda una sorprendente facilidad de uso e integración de la inteligencia artificial, al menos desde el punto de vista técnico y operativo, y esto debería garantizar una masiva y exitosa adopción de la inteligencia artificial.

En parte lo estamos viendo, pero, en realidad, todavía nos queda, creo, mucho por ver.


jueves, 6 de junio de 2024

Una definición de humanismo digital y algunas derivadas

En esa encomiable, pero a veces confusa, búsqueda de armonización de los fenómenos tecnológicos actuales con los valores y aspiraciones humanas, aparece de vez en cuando, el término algo etéreo de humanismo digital.
 

En busca del concepto de humanismo digital


Ya he recordado recientemente en este blog como, desde hace, tiempo, estoy en una búsqueda, bien que no muy activa, de una definición, o quizá, mejor que una definición, una delineación de en qué consiste eso que se llama 'humanismo digital', una búsqueda que reflejé ya hace un tiempo en el post 'Humanismo digital: el inicio de una búsqueda'.

Y, la verdad, casi había renunciado a encontrar una definición, digamos, externa, y me lo imaginaba, más bien, como un empeño personal, una especie de misión, como algo que iba a tener que hacer yo mismo en algún momento: ponerme delante del ordenador, la forma moderna de situarse ante un papel en blanco, y ensayar una definición, o un concepto.


Una definición


Casualmente, bueno no tan casualmente en realidad, me encuentro ahora una definición en el libro 'Introduction to digital humanism' editado por Hannes Werthner, Carlo Ghezzi, Jeff Kramer, Julian Nida-Rümelin, Basahr Nuseibech, Erich Prem y Allison Stanger y constituido por una larga serie de aportaciones de diversos autores y en que, junto con el libro 'Digital humanism: for a humane transformation of democracy, economy and culture in the digital age' y el 'manifiesto de Viena sobre humanismo digital' me hacen pensar en una suerte de movimiento fundacional del Humanismo Digital como disciplina o, más bien, como corriente de pensamiento algo más estructurada y liderada.

En cualquier caso, y a lo que vamos, en el capítulo de esa obra titulado 'Philosophical foundations of digital humanism' y firmado por Julian Nida-Rümelin, y Klaus Staudacher, se nos dice que


Digital humanism is an ethics for the digital age that interprets and shapes the process of digital transformation  in accordance with the core concepts of humanist philosophy  and practice.


Vemos en esta definición que, de alguna forma, el humanismo digital es una forma de ética, cosa que no resulta sorprendente en absoluto. Bien al contrario, cabía esperarlo, y tiendo a estar de acuerdo, aunque me pregunto si no puede ser ligeramente reduccionista. 

Vemos por otro lado que se pone en relación con la transformación digital para moldearla y darle e forma. Sin considerarlo incorrecto, en este punto me gustaría hacer una precisión. Cuando hablamos de transformación digital, en general nos estamos refiriendo a un proceso de cambio que acometen las organizaciones, fundamentalmente las empresas. Así lo definí en mi primer libro, 'La carrera digital' y así lo suelo explicar en numerosos cursos. Y, a efectos prácticos creo que es la mejor manera de enfocarla. 

Sin embargo, en esos mismos cursos, y cuando viene al caso, suelo advertir de que podríamos hablar también de transformación digital no solo como un proceso de cambio de una empresa o administración sino también como un cambio económico, social e incluso personal. En el caso de la definición que hemos visto, está claro que el término transformación digital se entiende más en ese marco amplio económico y, sobre todo, social y no tanto como un proceso de cambio de las empresas o administraciones.

Finalmente, la definición señala el acuerdo con los principios de la filosofía humanista y, esto puede resultar confuso y, según su interpretación, a lo mejor también reduccionista. Si por filosofía humanista entendemos, de forma algo vaga, una forma de pensar que pone a la persona, al ser humano en el centro, y que da importancia al individuo, entonces estoy de acuerdo. Si por filosofía humanista nos referimos, estrictamente, al movimiento humanista propio del Renacimiento, entonces, seguramente, nos estemos limitando innecesariamente y puede que anacrónicamente. No aparece en esta definición, pero en algunas partes de este mismo libro y del otro citado, me ha llamado la atención la frecuente referencia a la Ilustración. Sin despreciar para nada las aportaciones que en el pasado se puedan haber hecho, en el Renacimiento o en la Ilustración, ceñirnos por definición, a un pensamiento histórico, me parece limitante y no justificado.


Algunas derivadas: autonomía, libertad y responsabilidad


En el mismo capítulo en que se hace esta definición, se hace alguna observación que me interesa traer a colación.

Por un lado, y quizá en línea con esa visión humanista de la individualidad, se destaca de alguna forma la autonomía humana, lo que los autores denominan autoría, cuando dicen


At the heart of humanist philosophy and practice is the idea of human authorship. Human beings are authors of their lives...


Comparto, seguramente como la mayor parte de los occidentales, esa defensa de la individualidad humana y de su autonomía para definir su vida y su destino, pero anoto que, quizá, ésta sea una concepción, precisamente, muy occidental, y que tal vez no se entienda tan claramente en el mundo oriental o en otras culturas. Un aviso que tenemos que hacer siempre que hablemos de valores y de ética y que tiene su importancia si queremos una suerte de consenso ético mundial, de valores compartidos que permitan una mejor convivencia y más pacífica.

En cualquier caso, esa autonomía, esa autoría, conduce de forma muy directa, y también aparece en el discurso de los autores, con la idea y el valor de la libertad.

Y un tercer aspecto del discurso de los autores, y que es continuación directa de lo anterior, es la idea de responsabilidad, que nace como consecuencia de esa autonomía y de esa libertad


The core idea of humanist philosophy, human authorship , thus, can be characterized  by the way we attribute responsibility  to each other and thereby treat each other as rational and free beings.


Esa idea de responsabilidad, que deriva de la autonomía y la libertad es fundamental para cualquier sistema ético y legal, al menos los occidentales y es, de hecho, objeto de análisis en muchas obras filosóficas y jurídicas.

Al final, se nos identifican tres elementos clave: autonomía, libertad y responsabilidad


The triad of reason, freedom, and responsibility spans a cluster of normative concepts  that determines the humanistic understanding of the human condition...


En la frase anterior se sustituye autonomía por razón, pero prefiero quedarme con el término 'autonomía' y conservar como valiosa la triada autonomía, libertad y responsabilidad.


Conclusiones


Sin dar por cerrada la búsqueda de un concepto de humanismo digital, seguramente, al final, busque mi propio concepto, tenemos aquí, al menos, un intento de definición de este, digamos, pensamiento, que denominamos humanismo digital.

Y, de paso, y con un carácter para mi muy relevante, la identificación de esa tríada: autonomía, libertad y responsabilidad.