lunes, 28 de febrero de 2022

El aprendizaje que les falta a algoritmos y robots

Uno de los elementos clave del desarrollo de la inteligencia artificial y, en concreto, el machine learning es su capacidad de aprendizaje, de detectar patrones en los datos y de deducir reglas a partir de ejemplos o alguna forma de feedback.

Así, gozan de buen desarrollo los algoritmos de aprendizaje supervisado y no supervisado y  hay buenos resultados e investigación en materia de aprendizaje por refuerzo y otras formas más o menos híbridas de aprendizaje.

En algunos aspectos, por ejemplo en la detección de patrones en los datos ocultos a la perspicacia humana, parece como si los algoritmos fuesen por delante. Sin embargo, considerado de forma general, y a pesar de los grandísimos avances, parece que el aprendizaje de las máquinas no iguala, ni de lejos,  al aprendizaje humano o incluso de otros seres vivos. 

Por ejemplo, los seres humanos poseemos el llamado 'sentido común' que tan difícil es que llegue a exhibir una máquina. O, también, podemos observar cómo en apariencia los seres humanos somos capaces de aprender y generalizar con muchísimos menos datos o ejemplos que los algoritmos. 

¿Por qué es esto?

Bueno, si lo supiésemos con total certeza y detalle, seguramente se le podría poner remedio con relativa facilidad. Al cien por cien no lo sabemos pero sí hay cierto conocimiento y algunas ideas relevantes.


Algunas ideas sobre el aprendizaje humano


Me encuentro leyendo el libro 'Robotics, AI and Humanity', un libro, como tantos otros, escrito por multitud de autores, cual una serie de artículos o white papers reunidos en un solo volumen. En uno de los primeros capítulos de esta obra, en concreto, en uno escrito por Wolf Singer, se hacen algunas comparativas sobre el aprendizaje humano y el aprendizaje de las máquinas, que vienen al caso, e inspiran, lo que estamos hablando.

Así, cuando Singer habla del aprendizaje en lo que denomina 'sistemas naturales' (el ser humano sería un 'ser natural'), nos dice


In natural systems the model of the world is to a large extent inherited, i.e. the relevant information has been acquired by selection and adaptation during evolution, is stored in the genes and expressed in the functional anatomy of the organism and the architecture of its nervous systems. This inborn model is subsequently complemented and refined during ontogeny by experience and practice. 


En este párrafo se apunta a un elemento importante que, al menos parcialmente (luego comentaré por qué digo que parcialmente), separa el aprendizaje humano del aprendizaje de máquinas: la herencia. Una herencia que en el texto aportado atribuye a la evolución y que se codifica en los genes y el diseño del sistema nervioso. Cuando nacemos, pues, y antes de que en cierto sentido comience nuestro aprendizaje, ya traemos en nuestro ser la herencia de miles o millones de años de aprendizaje evolutivo. Es decir, no partiríamos de cero (como empieza el entrenamiento de un algoritmo) sino con un nivel ya muy alto de conocimiento sobre el cual se construye el aprendizaje de cada individuo.

Sobre esta base, se añade otra que se resalta también a continuación


the necessary information is provided in part by evolution and in part by lifelong learning.


Se habla del aprendizaje continuo a lo largo de toda la vida. Aunque los algoritmos pueden ser entrenados de manera continua, en general el tiempo de entrenamiento es limitado y, una vez conseguido el ajuste deseado de parámetros y que la relación entre entradas y salidas proporcione unos resultados satisfactorios, el algoritmo deja de entrenarse (aunque las buenas prácticas de machine learning indiquen que, periódicamente, deba revisarse y considerar si se debe someter a nuevo entrenamiento para adaptarse a posibles cambios en el entorno).

Aunque no aparece en el texto que menciono, sí hay un tercer factor que me he encontrado en otras lecturas y que quisiera señalar: el factor social o cultural. Aparte de la herencia que recibamos vía genética, los seres humanos recibimos otra herencia: la cultural. 

Es cierto que ésta debemos conocerla como parte de nuestro aprendizaje individual, pero también es cierto que esa cultura a la que podemos acceder, de alguna forma ya nos proporciona de una manera destilada y trabajada las conclusiones y aprendizajes obtenidos a lo largo de siglos por los seres humanos. Probablemente, aparte de servir la cultura como herencia, de alguna manera nuestra característica social hace que también durante el desarrollo de nuestra existencia, recibamos estímulos enriquecidos, pre-procesados, a partir de nuestras interacciones sociales con otras personas o con medios publicados.


El aprendizaje en algoritmos y robots


Frente a esta formas más o menos avanzadas y diferenciales del aprendizaje humano, nos encontramos, siguiendo la fuente citada, con que:


Artificial systems have no evolutionary history but are the result of a purposeful design, just as any other tool humans have designed to fulfil special functions.


En efecto, los algoritmos, los robots, no han vivido esa evolución no tienen esa herencia. Su aprendizaje con frecuencia parte de cero, es normalmente concentrado en el tiempo, orientado a una tarea concreta y basado en unos datos relativamente recientes.

Sin embargo, y por eso hablaba antes de 'parcialmente' hoy en día esto ya no es cierto al cien por cien.

Un campo que ya se utiliza y en el que se trabaja es el del transfer learning que lo que busca (y ya consigue en ciertos ámbitos como la visión artificial) es no tener que entrenar a un algoritmo (típicamente una red neuronal) desde cero, sino partir de y reutilizar redes parcialmente entrenadas y, sobre ellas hacer un ajuste final a nuestro problema concreto.

En cierto sentido, además, el hecho de que con frecuencia los algoritmos de inteligencia artificial estén proporcionados desde la nube por los hiper-escaladores (Amazon, Microsoft, Google, IBM,...) hace que el aprendizaje y mejora de los algoritmos que éstos fabricantes obtienen, se transmitan de alguna forma a todos sus clientes y usuarios. 

Es decir, alguna capacidad de herencia y reutilización de conocimiento anterior ya se está implementando hoy en día, aunque parece estar muy lejos de la herencia que mencionábamos anteriormente en los seres vivos incluyendo los seres humanos.

En cuanto al aprendizaje continuo, y aunque en general los algoritmos se entrenan durante un tiempo acotado, no parece teóricamente imposible ni mucho menos (aunque pueda tener dificultades prácticas)  dejar que un algoritmo continúe aprendiendo indefinidamente durante toda su vida útil.

En cuanto al factor cultural, creo que en cierto modo los robots y algoritmos se benefician parcialmente de esa herencia cultural. ¿En qué sentido? Bueno, en el sentido de que, de alguna forma, su propio diseño, los datos que les proporcionamos para el entrenamiento, la famosa ingeniería de características, se basa en el conocimiento del dominio que los humanos tenemos y que, en cierto sentido, transmitimos al algoritmo. Es decir, a través de las personas se benefician parcialmente de esa herencia cultural, aunque probablemente de manera muy limitada. 

Y no se hace mucho uso, aunque no es en teoría imposible, de la interacción social como forma de aprendizaje. Los robots sociales o los agentes conversacionales están diseñados para esa interacción social. Cierto es que, todavía tienen que mejorar y que, en general, la interacción social no se usa como una fuente de aprendizaje sino como su objetivo final. Diría que no es técnicamente imposible el aprendizaje de las máquinas a partir de la interacción social, pero sí que es complejo y que no es algo que se está haciendo de forma generalizada.


Conclusión


Las conclusiones que podemos obtener no son muy sorprendentes. 

Por un lado, se identifican algunos aspectos (y puede que haya más), que diferencian el aprendizaje natural (incluyendo el de los seres humanos)  del aprendizaje de las máquinas, unas diferencias que, en general, ponen en mucha ventaja (aunque no siempre) a los seres humanos cuando hablamos no de tareas muy específicas, sino de adaptación general.

Pero, y como cabe imaginar, en el campo de la inteligencia artificial se intenta avanzar en mejorar ese aprendizaje de las máquinas, en unos casos emulando a los seres vivos y en otros buscando vías alternativas.

 Hay muchísimo camino por delante... y muy interesante, desde luego.


viernes, 25 de febrero de 2022

Los sentimientos y la consciencia según Antonio Damasio

En 'Feeling and Knowing', Antonio Damasio, el afamado neurocientífico, busca, tanto por propia intención como por petición de su editor, hacer un resumen compacto y accesible de sus teorías expuestas anteriormente en libros más largos y sesudos. Unas teorías que, aunque evidentemente están en evolución, creo que tiene una base ya muy asentada al menos en lo que son sus ideas sobre la homeostasis, las emociones, las sensaciones, la creación de las mentes y la aparición de la consciencia. Y unas ideas que, aunque de clara base fisiológica, a medida que avanzan se acercan algo a lo psicológico e incluso filosófico.

El libro que, a propósito, busca no ser muy extenso, se estructura en sólo cinco capítulos, como sigue:
  • 'I. On Being:' Pone los fundamentos con los conceptos más básicos. Así, reflexiona sobre el sentido de la vida (desde un punto de vista biológico) e introduce la idea de homeostasis, de detección ('sensing) y mente ('mind'). También destaca la importancia del sistema nervioso y el cerebro, es decir, una realidad física, con la aparición, por ejemplo, de la consciencia. Y finalmente presenta un esquema en tres fases del desarrollo de la vida, que son, (1) ser ('being') (2) sentir ('feeling') y (3) conocer ('knowing') lo que da sentido al título del libro y al resto de su desarrollo.

  • 'II. About Minds and the New Art of Representation:' Introduce primero el concepto de inteligencia (como la capacidad de un organismo vivo para resolver con éxito los problemas que le plantea la lucha por la vida) y explicita que la inteligencia humana requiere de una mente y de consciencia. Luego clarifica algunos aspectos relativos a la consciencia y como ésta va más allá del puro percibir ('sensing') y cómo, también, de alguna forma la consciencia mira hacia el contenido de la propia mente. Y sigue hipotetizando la forma en que una mente se construye a partir del sustrato y actividad neuronal.

  • 'III. On Feelings:' Se concentra en el tema de los sensaciones ('feelings'). Nótese que traduzco la palabra que emplea Damasio, 'feeling' como sensación y no como sentimiento porque en la concepción de Damasio veo mucho más relacionado estos 'feelings' con la percepción más que con la concepción, digamos más emotiva que implica la palabra sentimiento en el lenguaje del día a día. De todas formas, abre el capítulo con una sección titulada afecto ('affect') pero que en realidad plantea las ideas básicas sobre las sensaciones ('feelings'), cómo éstas corresponden a estados de nuestro interior, cómo se relacionan con la homeostasis en el sentido de informar al organismo de cómo está operando y el estado en que se encuentra, cómo se apoyan en un sistema nervioso en permanente contacto con nuestro cuerpo y cómo sun una percepción dinámica. Introduce también el concepto de emoción ('emotion') como conjuntos de acciones internas concurrentes disparadas por una percepción externa y cómo esas emociones pueden a su vez disparar sensaciones ('feelings'). Afirma que las sensaciones son conscientes y que tienden a ser desagradables ante situaciones peligrosas para la vida y agradables en caso contrario. A continuación profundiza en una serie de aspectos relativos a esas sensaciones ('feelings') en varias secciones que titula 'grounding feelings'. A continuación hace un breve apunte sobre la influencia sociocultural en la generación de sensaciones y finaliza destacando, de nuevo, la necesidad de consciencia para que existan esas sensaciones y, al tiempo, como la existencia de sensaciones es necesaria para la consciencia.

  • 'IV. On Consciousness and Knowing' Y precisamente, en la consciencia se centra este capítulo, el más largo de los que componen esta obra. Habla primero de la consciencia natural y cómo ésta es un estado de la mente derivado de procesos biológicos. Luego estudia las problemáticas alrededor de la consciencia, como el "gran problema", introducido por el filósofo David Chalmers y que hace referencia a cómo y por qué los procesos físicos en el cerebro dan lugar a una experiencia consciente. Intenta responder a continuación a un poco el para qué le sirve a un organismo vivo el ser consciente y luego establece la distinción entre mente ('mind') y consciencia ('consciousness') dejando claro que no todos los estados de la mente son conscientes y cómo, para que exista consciencia, los procesos de la mente deben enriquecerse de alguna forma que identifique al organismo individual como propietario de su vida, cuerpo y pensamientos. También hace la distinción entre consciencia y, simplemente, 'estar despierto'. Sentadas las bases, sigue una larga serie de consideraciones y reflexiones adicionales sobre la consciencia tocando aspectos como la actividad de recolección de conocimiento ('knowledge'), la relación con la atención ('attention'), la importancia del sustrato orgánico o el fenómeno de la pérdida de consciencia. Y finaliza con una breve reflexión sobre la eventualidad de máquinas que sientan y máquinas conscientes.

  • 'V. In All fairness: An Epilogue' Un corto epílogo que hace un poco de resumen y final inspirador.
'Feeling and Knowing' es un libro que, sin ser absolutamente sencillo, especialmente cuando se llega a la parte final, sí está bastante organizado, destilado y simplificado como para poner al alcance de cualquier lector con suficiente curiosidad sobre el pensamiento de Antonio Damasio, un pensamiento que, además, por la temática que aborda, puede ser de interés para muchos lectores.

Si alguien quiere acercarse, exploratoriamente y por primera vez, a las ideas de Damasio, éste libro sea probablemente la mejor opción.
 
Antonio Damasio 

(Fuente: Wikipedia)

Antonio Damasio
António C. R. Damásio (Lisboa, 25 de febrero de 1944) es un famoso médico neurólogo de origen portugués.

Damasio estudió medicina en la Facultad de Medicina de la Universidad de Lisboa, donde realizó también su rotación como residente y completó su doctorado. Más tarde, se trasladó a los Estados Unidos como investigador visitante durante seis meses en el Aphasia Research Center (Centro para la investigación de las afasias) en Boston. Allí, su trabajo sobre neurología del comportamiento estuvo bajo la supervisión de Norman Geschwind.

Es profesor de la cátedra David Dornsife de Psicología, Neurociencia y Neurología en la Universidad del Sur de California, donde dirige el Institute for the Neurological Study of Emotion and Creativity de los Estados Unidos (Instituto para el estudio neurológico de la emoción y de la creatividad). Antes de llegar a este puesto universitario, en 2005, Damasio fue profesor de la cátedra M.W. Van Allen y Jefe de Neurología en el Centro Médico de la Universidad de Iowa. Su carrera en Iowa se prolongó entre 1976 y 2005. Además de ser un conocido investigador en varias áreas de las neurociencias, es un autor de éxito de libros de ciencia de tipo divulgativo.

Está casado con Hanna Damasio, colega y co-autora de varios de sus libros.

Puedes saber más del autor siguiéndole en Twitter donde se identifica como @damasiousc.

Ficha técnica:

miércoles, 23 de febrero de 2022

Agentes racionales artificiales frente al problema de la escala

Muchas son las dificultades con que se encuentra la disciplina de la inteligencia artificial para conseguir la realización de un agente racional, un agente, digamos, plenamente racional, es decir, un agente que tenga unas capacidades comparables a las de un ser humano. 

Conseguirlo nos llevaría a la consecución de la llamada inteligencia artificial general (AGI, 'Artificial General Intelligence') o HLAI ('Human-Level Artificial Intelligence') y, caso de lograrlo, de forma que creo casi inmediata, nos llevaría también a la superación de la inteligencia humana. es decir, la superinteligencia y, presumiblemente, la tan traída y llevada 'singularidad'.

Para conseguir esos agentes racionales, se oponen, aparte del problema de la escala que veremos al final, al menos otras dos dificultades o barreras previas que bautizo rápidamente, de cara a este post como:


  • La dificultad de la comprensión
  • La barrera ética 


La dificultad de la comprensión


Por la dificultad de la comprensión me refiero a algo que ha salido ya repetidamente en este blog: queremos imitar el comportamiento del cerebro humano cuando realmente no sabemos cómo funciona.

En efecto, el modelo operativo para un agente racional es nuestro propio cerebro. Prescindiendo, siquiera temporal o parcialmente, de posibles concepciones religiosas que sitúen fuera de nuestro alcance la imitación del cerebro, parece que el camino más evidente, aunque no está claro que sea el más fácil, para conseguir un agente racional es desentrañar el funcionamiento del cerebro y trasladar su modelo operativo a un equipamiento artificial, un equipamiento artificial que, puestos a especular, ni siquiera tendría por qué ser de una base de semiconductores, y se podría, quizá, llegar a cultivar neuronas y diseñar y construir capacidades computacionales con ellas.

En cualquier caso, y suponiendo que sea teórica y teológicamente viable llegar a imitar el comportamiento de un cerebro humano, lo cierto es que hoy en día, simplemente, no sabemos cómo funciona, así que no podemos imitarlo, al menos no en su funcionamiento interno.

No parece teóricamente imposible, aunque sí complicado, conseguir una máquina de comportamiento externo similar a un cerebro humano con independencia de que su operación interna sea diferente. De hecho, en cierto sentido, esa es la filosofía del machine learning: renunciar a imitar una operativa interna pero aprender y detectar patrones de comportamiento externo con base en datos.

 En cualquier caso, sea posible o no en el futuro, ahora mismo no podemos 'clonar' el comportamiento del cerebro humano, porque no lo conocemos. Y la imitación externa, la que consigue el machine learning, y pese a sus indudables y espectaculares éxitos, está muy lejos de esa inteligencia artificial general, de esa consecución de un agente racional.


Una barrera ética


Una barrera no técnica, sería la que he llamado la barrera ética.

A pesar de lo atractivo que resulta desde un punto de vista científico y técnico, y probablemente económico, la realización de ese agente racional, de esa superinteligencia, lo cierto es que también asusta.

Asusta en parte porque nos hace cuestionarnos de raíz qué es el ser humano, su singularidad y su papel en el mundo. La consecución de la superinteligencia podría ser un golpe mucho más duro para la, llamémosla, 'autoestima' del ser humano, de lo que pudo suponer en su momento, el reconocimiento de que la Tierra no era el centro del Universo o la teoría evolucionista que nos colocaba como descendientes de los primates.

Y asusta por una eventual pérdida de control, por la posibilidad de que las máquinas se hiciesen con el control del mundo y nos pudieran dejar en un papel secundario o, en las visiones más distópicas, convertirnos en esclavos o aniquilarnos.

Sea por consideraciones éticas puras, o por simple temor, una barrera para el desarrollo de la superinteligencia podría ser la que he denominado esa barrera ética, es decir, no realizamos la superinteligencia porque decidimos no hacerlo. Un 'decidimos no hacerlo' que, aunque partiría de una base ética, seguramente se debería sustanciar en unas obligaciones legales y normativas.

Debo reconocer que, de todas formas, no soy excesivamente optimista en el sentido de que la barrera ética pudiese detener realmente el desarrollo de los agentes racionales si éstos fuesen técnicamente posibles y económicamente (o políticamente) interesantes. 

Antes o después, 'alguien' lo haría.


La dificultad de la escala


Sin embargo, y aunque quizá sea de alcance menor, este post se refería, en realidad, a un tercer impedimento, que he denominado la dificultad de la escala.

¿A qué me refiero?

De nuevo, la idea de un agente racional es, en esencia, imitar, y eventualmente superar, al ser humano. No es en teoría imposible pensar en otra forma de agente racional pero el modelo suele ser la imitación/superación del ser humano.

Pues bien, a pesar de los enormes avances en capacidades de computación, mediante, por ejemplo, la aparición de procesadores especiales como los GPU o TPU, mediante los algoritmos de computación distribuida usados sobre todo en Big Data, la agregación de capacidades computacionales en la nube, especialmente de los hiper-escaladores como Amazon, Microsoft, Google o IBM, a pesar de todo ello, la escala computacional que supone imitar al ser humano, parece todavía fuera de alcance.

No tengo datos completos, pero sí un apunte que hacen Stuart Russell y Peter Norvig y en las últimas páginas de su libro 'Artificial Intelligence. A modern approach', en el que nos dan este dato: 


consider the fact that a detailed plan for a human life consists of (very roughly) twenty trillion potential muscle actuation and you begin to see the scale of the problem.


Unas líneas más abajo, los mismos autores casi se burlan de la posibilidad de conseguir con un computador, incluso el más potente, las capacidades racionales de un ser humano, diciendo:


a computer that is a billion trillion times more powerful than the human brain is much further from being rational than a slug is from overtaking the starship Enterprise traveling at warp time


Y concluyen:


it seems that the goal of building rational agents is perhaps a little too ambitious


Está claro que estos dos autores, no creen en la posibilidad de conseguir los agentes racionales, al menos en un tiempo previsible.

Francamente, no me parece que el problema de la escala sea la mayor o la más insuperable barrera para la consecución de un agente racional. Ahí están los espectaculares avances en las últimas décadas en materia de capacidad de computación y ahí está también la 'promesa' de la computación cuántica. 

En cualquier caso, el problema de la escala sí que es un impedimento ahora mismo, a menos si no ideamos otros modelos algorítmicos igual o más eficaces que los actuales pero mucho más frugales en recursos computacionales.


Conclusión


O sea que, como ya más o menos he expresado repetidamente en este blog, con independencia de que consideremos teóricamente posible o no el conseguir esos agentes racionales, esa inteligencia artificial general o incluso esa superinteligencia, lo que sí parece claro es que ahora mismo estamos, al menos desde el punto de vista puramente técnico, bastante lejos de ello.

El tiempo nos irá diciendo si también estamos muy lejos o no de conseguirlo, precisamente, desde un punto de vista temporal.

Y mientras tanto, y por si acaso, procede pensarlo anticipadamente y, por favor, con realismo, desde un punto de vista de control (control de máquinas super-inteligentes) y pensarlo también desde un punto de vista ético y normativo. 


lunes, 21 de febrero de 2022

La Inteligencia Artificial como espejo

Cuando hablamos de ética en inteligencia artificial, una de las problemáticas que más se mencionan es la del sesgo algorítmico, el hecho de que los algoritmos, en sus conclusiones o decisiones, perjudiquen de alguna manera a una persona o, más bien, a un colectivo por género, edad, raza o cualquier otro.

Ya hemos hablado, de hecho recientemente, sobre el particular en este blog dando, por ejemplo, algunos criterios de imparcialidad algorítmica y también mencionando algunas buenas prácticas para evitar ese sesgo.

Sin embargo, hoy quisiera hacer una reflexión muy breve sobre los motivos del sesgo. En realidad, presentar de una forma ligeramente diferente algo ya explicado: los algoritmos no tienen voluntad propia (no son 'sesgados' por su propia voluntad) ni tampoco, al menos de forma general, sus diseñadores y desarrolladores abrigan ninguna mala intención.

Los sesgos se producen porque, de alguna forma, están implícitos en los datos que sirven para el entrenamiento del algoritmo, bien por una mala selección de esos datos, un mal muestreo y por tanto un error procedimental, o bien, y a eso es lo que voy en este artículo, porque los datos reflejan fielmente una realidad sesgada en nuestra sociedad.

En este segundo caso, fíjese el lector que no hay error ni en el algoritmo ni en la toma de datos. No hay ningún tipo de error ni de diseño, de intención o metodológico: es nuestra propia sociedad la que está sesgada. Y los algoritmos, lo único que hacen, es mostrarlo, hacerlo patente.

El pasado Jueves 17, durante la presentación del informe GuIA de OdiseIA, una guía aterrizada de criterios y buenas prácticas para la aplicación de la inteligencia artificial en empresas y administraciones, una de las participantes en una mesa redonda (estoy casi seguro que fue Patricia Manca, de PwC, aunque no lo puedo asegurar completamente) expresó esa idea diciendo algo así como que, la Inteligencia Artificial de alguna manera estaba poniendo a nuestra sociedad ante un espejo, mostrándole sus propios sesgos. Y me gustó esa forma de expresarlo y por eso la he recogido brevemente en este post.

Conviene tenerlo en cuenta: en no pocas ocasiones, los algoritmos están sesgados porque reflejan, como un espejo, una sociedad sesgada.

Muchos, muchísimos son los beneficios que la inteligencia artificial está trayendo y traerá a nuestras economías y a nuestro bienestar, pero éste es quizá, un "beneficio colateral" e inesperado, una ayuda ética, mostrándonos de manera muy clara algunos de nuestros errores como sociedad y el contraste entre nuestros valores (al menos nuestros valores aspiracionales) y nuestra realidad.


viernes, 18 de febrero de 2022

El mundo nos está mirando: un mensaje de orgullo tras la presentación del informe GuIA de OdiseIA

"El mundo nos está mirando".

No, la frase no es mía. 

La pronunció ayer, Jueves 17 de Febrero, Carme Artigas, Secretaria de Estado de Digitalización e Inteligencia Artificial en su intervención para clausurar el evento de presentación del primer informe GuIA

Luego volveremos sobre esta frase, y por qué la uso como título y como mensaje. Pero antes, un poco de contexto.


Ética de la Inteligencia Artificial


Para toda aquella persona interesada en Inteligencia Artificial o incluso, en aspectos éticos o legales ligados a la tecnología, es bien conocido que, además de todas las áreas de investigación y desarrollo, enormemente interesantes, e incluso sorprendentes, que se dan, alrededor de la inteligencia artificial en el plano puramente tecnológico o también en soluciones y casos de uso, existe un debate y un trabajo intensos en el campo de la ética de la inteligencia artificial.

Un debate que, en muchos casos, se queda sólo en eso, en debate, pero que en el seno de la Unión Europea se está traduciendo en documentos concretos, con ideas concretas, con ya una primera propuesta de reglamento, y con la muy clara perspectiva de que esos trabajos se acabarán convirtiendo, en un plazo razonable, en directrices y leyes.


OdiseIA - Observatorio del Impacto Social y Ético de la Inteligencia Artificial


OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial) es una asociación sin ánimo de lucro, constituida como tal en 2020 contando entre sus socios fundadores a Idoia Salazar, Richard Benjamins y Mar Cabra,  actualmente, Presidenta y Vicepresidentes, respectivamente.

De forma resumida, tal y como figura en su página web, el objetivo de la asociación es:


promover acciones concretas e influyentes para impulsar el uso responsable de la Inteligencia artificial en todas las áreas.


Es decir, trabaja, precisamente, en el campo de la ética de la inteligencia artificial.

En aras de la transparencia, conviene decir que formo parte activa de esta asociación desde algo así como año y medio, pero también que mi participación en lo que voy a contar a continuación, la iniciativa GuIA, esa participación ha sido muy, muy modesta, prácticamente nula, así que no me atribuyo ni el más mínimo mérito de lo que cuento de aquí en adelante, aunque, por coherencia con la frase que abre el post, emplee la primera persona del plural y aunque los pensamientos y sentimientos que inspira sí sean míos y muy míos.


La iniciativa GuIA


GuIA es el proyecto estrella de OdiseIA y consiste en la elaboración de unas guías de uso para la aplicación real y práctica de principios éticos en el uso de la inteligencia artificial en empresas y administraciones.

Un proyecto, liderado por Juan Manuel Belloto, que ha realizado, me consta, un trabajo titánico, y en el que, aparte de 10 socios de OdiseIA (Adrián González, Adrián Palma, Anna Danes, Florence Byrd, Idoia Salazar, Juan Murillo, Lorenzo Cotino, Paul Van Branteghem, Pedro Albarracín y Richard Benjamins) han colaborado, y de forma muy activa,  empresas tan prestigiosas, y con tanta experiencia en la materia, como son PwC, Google, Microsoft, IBM y Telefónica.

Y ayer era el acto en que se hacía la puesta de largo del primer informe fruto de este proyecto, lectura obligatoria para toda persona interesada en la materia. 

Y en ese contexto, se produjo la intervención de Carme Artigas, Secretaria de Estado de Digitalización e Inteligencia Artificial y la frase "El mundo nos está mirando".


¿Qué está mirando el mundo, exactamente?


¿A qué se refería?

Se refería a todo el desarrollo ético y normativo que se está llevando a cabo en el seno de la Unión Europea. Unos trabajos serios, rigurosos y prácticos que darán lugar, sin duda, a la regulación de la Inteligencia Artificial, con criterios éticos, en el seno de la Unión Europea.

Y unos trabajos que son pioneros a nivel mundial y que se espera, que al igual que sucedió con el GDPR, nacido también de la Unión Europea y referente mundial ahora mismo en cuanto a protección de datos, la regulación de la Unión Europea se convierta también en referente ético y normativo a nivel mundial en el uso de la inteligencia artificial.

Y la secretaria de estado nos dijo, además, y promoviendo un poco el orgullo patrio, que lo que de alguna manera inspiró el GDPR fue la LOPD española, la primera ley de protección de datos. No sólo eso, también desveló que, de cara a esa futura regulación Europea, España está dando también algunos pasos decididos y pioneros que ya no voy a desvelar.

Y por eso, porque Europa, y España, vamos a decir, son pioneros en ese desarrollo ético y normativo, porque además gozan del prestigio de iniciativas anteriores como GDPR, es por lo que el mundo está mirando a ver qué es lo que hacemos.


De Inteligencia Artificial y geopolítica.


La Inteligencia Artificial es una de las tecnologías, quizá 'la tecnología', más importante desde el punto de vista económico y estratégico a nivel mundial en los años por venir, con permiso de la computación cuántica y de la biotecnología. Y existe, por ello, una desenfrenada carrera de las grandes potencias por dominarla.

Una desenfrenada carrera que, desde luego, en cuanto a tecnología e innovación, por desgracia, no está ganando Europa. sino que la supremacía se la disputan, como tantas otras cosas, EEUU y China.

Y, como mercado y potencia económica, no cabe duda que también la disputa está entre la actual primera potencia, EEUU y el muy serio aspirante, China. Desde luego, no Europa. 


Los valores y el papel de Europa


Pero hay algo en que Europa sí parece tener liderazgo: los valores y la regulación.

Aunque es cierto que lo de los valores puede ser discutible y cambia según culturas, y más si pensamos en una cultura tan diferente a la nuestra, como es la cultura China, Europa aporta toda su tradición de humanismo, de respeto por las personas y los derechos humanos individuales, de democracia y bienestar social.

Y toda su capacidad para ordenar y regular, de forma efectiva y ética, su funcionamiento.

Y ahí sí que parece que Europa es líder... y por eso el mundo está atento a lo que se hace en Europa.

Por eso, en materia de uso ético y responsable de la inteligencia artificial, el mundo nos está mirando. 


Sobre el liderazgo


Mucho se ha escrito sobre el liderazgo, y no voy a desarrollar aquí una teoría sobre el particular, pero se me ocurre que, si queremos verlo de una forma sencilla, el liderazgo tiene dos ingredientes: capacidad y voluntad

Capacidad que significa disponer de los conocimientos, habilidades y recursos necesarios para dirigir a las personas, los equipos y los pueblos. Y voluntad que es desear de forma activa ejercer esa dirección y llevarla a la acción real y concreta.

En materia de valores, de ética y regulación, Europa lleva muchos años, quizá muchos siglos, demostrando y desarrollando su capacidad.

Y, por suerte, en los últimos años, y en lo que se refiere a marcar el paso en cuanto a regulación de la inteligencia artificial, también ha demostrado y está demostrando, su voluntad.

Así que sí, Europa está en disposición de ejercer el liderazgo.

Y España, también apuesta decidida por ese liderazgo y está dando pasos importantes.

Y permítaseme enorgullecerme al decir que, aunque a menor escala, claro, OdiseIA, con GuIA, y acompañada por una serie de importantes empresas, también está apostando por ese liderazgo y ejerciéndolo.

Y eso es, o debería ser, en mi caso lo es sin duda, un motivo de orgullo, de profundo orgullo, un orgullo acompañado, claro, de una sensación de responsabilidad, de mucha responsabilidad.


El mundo nos está mirando


Y es, precisamente, por la sensación de orgullo que al menos en mí produjo, que, de todas las magníficas exposiciones e informaciones que en el acto de ayer se vertieron, me quedé, sobre todo, con esta frase de Carme Artigas:


El mundo nos está mirando.


Soy ingeniero, y me encantaría que Europa y España liderasen la tecnología e innovación en materia de inteligencia artificial, pero siendo realistas, no estamos realmente capacitados ahora mismo para ello. Aunque sí creo que tampoco estamos tan retrasados y que debemos, y podemos, invertir en tecnología, invertir en talento, invertir en proyectos y ganar posiciones.

Y soy ciudadano europeo y español, y desearía que Europa fuese la primera potencia económica, pero no siendo realista esperar eso, sí creo que Europa es un mercado lo suficientemente grande y poderoso como para disponer de capacidad para, al menos en su territorio, imponer sus condiciones, sus leyes y sus valores.

Y, finalmente, también soy persona, y una persona con inquietudes humanistas y por eso deseo que Europa pueda liderar, pueda hacer efectivos en la propia Europa y exportar al resto del mundo, su visión humanística, su respeto por el individuo, su visión ética, sus valores y sus libertades, aplicadas, en este caso, a la inteligencia artificial y a su regulación. Y en eso sí somos líderes. En eso sí tenemos la capacidad y la voluntad.

El que el mundo nos mire es un reconocimiento de ese liderazgo.

Y es un motivo de orgullo.

Y una llamada a la acción y la responsabilidad.

Hagamos ese análisis ético. Hagamos esa regulación. Y, en una escala más cercana, hagamos GuIA.

¿Qué el mundo nos está mirando?

Pues asumámoslo con orgullo y responsabilidad.

¿Qué el mundo nos está mirando?

Pues salgamos al ruedo y demos un buen espectáculo.


Imagen de cabecera: compuesta por imágenes propias e imágenes publicadas por OdiseIA, Juan Carlos Santamaría y Rosa Romero Soler, socios de OdiseIA


miércoles, 16 de febrero de 2022

¿En el umbral de una explosión robótica?

El mercado de la robótica parece ser un mercado saludable, pero podría ir a más, a mucho más.

Vamos a comentarlo.
 

Algunos datos de mercado


De acuerdo con los datos para el año 2020, de la International Federation of Robotics, existen en el mundo más de tres millones de robots industriales en operación y, en el año 2020, se vendieron cerca de 400.000 nuevas unidades (383.545) lo que supone, a pesar del efecto de la pandemia, un ligero crecimiento y, más importante aún, sitúa a 2020 como el tercer año más exitoso de la historia (por unidades vendidas) tras el 2018 y 2017. Esto parece un indicador de un crecimiento muy importante, transitoriamente ralentizado por la pandemia, pero que parece razonable se recupere este año o el que viene.

Por cierto, y como dato interesante, España se sitúa como décimo país del mundo en el mercado de robots industriales, aunque en 2020 sufrió un retroceso en unidades vendidas.

Si atendemos a los robots de servicio, un subsector que, como la misma fuente hace ver, es algo más intangible, los datos nos hablan de un crecimiento del mercado de un 12% en 2020, siendo las principales categorías la de los robots de transporte y logística, seguidos por los de limpieza y los médicos. Interesante destacar que de las algo más de mil empresas (1.067) que se identifican como fabricantes en este subsector, el 17% se consideran startups (fundadas en 2016 o posteriormente). 

En cuanto a los robots sociales, y aunque sin duda se trata de un mercado actualmente más modesto, datos de Business Wire, por ejemplo, nos hablan de un mercado valorado en 2.000 M$ en 2020 pero que se espera se multiplique casi por seis, hasta los 11.400 M$ en 2026.


¿Una explosión robótica?


Estos datos nos hablan de un mercado saludable y en crecimiento pero, digamos, sólo eso, un buen mercado con buenas perspectivas.

¿Nada más?

Bueno, con base en datos, al menos datos de que yo dispongo, nada más.

Pero hay alguna intuición, que quisiera compartir. 

Tengo la intuición, sólo la intuición, una intuición que ya verbalicé hace unos meses en el post 'La robótización inevitable', de que estamos en los umbrales de una explosión robótica. Una explosión que va a sacar a los robots de su preferente entorno industrial actual para acercarlos a los servicios y, sobre todo, a los hogares. Creo que, en realidad, esa robotización se está produciendo ya de forma casi inadvertida, pero que va a crecer mucho y sin que nos demos mucha cuenta, porque no será con base en productos espectaculares como robots humanoides (aunque alguno puede haber, claro) sino en base en la creciente incorporación de capacidades robóticas (capacidad de comunicación por voz, de cierta expresividad, capacidad de cierta interacción con su entorno, de ciertos niveles de autonomía e inteligencia) en todo tipo de equipos y dispositivos.

Y creo que, cuando nos queramos dar cuenta, estaremos rodeados de robots y, lo que es más, nos habremos acostumbrado a ellos y nos parecerán normales y que forman parte de nuestra vida como sucede hoy en día, por ejemplo, con los smartphones.

Esa es mi apuesta, y no tengo más base para ella que datos no concluyentes y mi propia intuición.

Pero esa intuición se ve reforzada cuando leo, de la mano de autores tan cualificados como Stuart Russell y Peter Norvig y en las últimas páginas de su libro 'Artificial Intelligence. A modern approach', lo siguiente:


we see that AI systems are at the cusp of moving from primarily software-only systems to useful embedded robotic systems. The state of robotics today is roughly comparable to the state of personal computers in the early 1980s: at that time personal computers were becoming available, but it would take another decade before they came commonplace. It is likely that flexible, intelligent robots will first make strides in industry (where environments are more controlled tasks are more repetitive, and the value of investment is easier to measure) before the home market (where there is more variability in environment and tasks).


Es interesante la comparativa con la situación del ordenador personal a finales de los 80. Desde luego, si el mercado de los dispositivos robóticos siguen una evolución parecida a la de los ordenadores personales en esa época, estaríamos, en efecto, en los umbrales de una explosión robótica, una explosión que, probablemente, dependerá más de fuerzas de mercado y del acierto en los casos de uso y soluciones propuestas, que del concepto o la tecnología que creo suficientemente preparadas ya para dar el salto al mercado masivo.


Conclusión


Como esta eventual explosión robótica es sólo una intuición, o una apuesta, poca conclusión se puede obtener. Lo que queda, realmente, es esperar y observar y, si me acuerdo, quizá dentro de tres, cinco, o como mucho diez años, volver la vista atrás, analizar cómo hemos cambiado, y ver qué tal ha envejecido este post. 


martes, 15 de febrero de 2022

Conociendo módulos y arquitectura de Microsoft Power Platform con Robert Rybaric

'Microsoft Power Platform Enterprise Architecture' es un libro que pretende dar una descripción, entre funcional y técnica, de las plataformas de Microsoft, fundamentalmente Power Platform, pero también, Dynanics 365, Office 365 o Azure desde un punto de vista global y de arquitectura sin detenerse en los detalles de cada elemento.

El libro, bastante largo, se estructura en diez capítulos agrupados en tres secciones como sigue:
  • 'Section 1 - The basics' Una presentación, amplia en alcance, pero ligera en profundidad, de los diferentes elementos que constituyen las soluciones Microsoft.

    • 'Chapter 1: Microsoft Power Platform and Microsoft Dynamics 365 Overview' Se trata de una larga descripción de los elementos que componen tanto la Power Platform como Microsfot Dynamics. Aunque el capítulo en su conjunto es largo, el espacio que puede dedicar a los numerosos elementos apuntados no puede ser demasiado extenso. En lo relativo a la Power Platform, primero introduce la pareja Common Data Service y Common Data Model, que está en el corazón de la información que manejan las aplicaciones de Microsoft. Luego explica el concepto de aplicaciones model-driven y canvas para luego ya abordar la descripción propiamente dicha de los elementos principales de la Power Platform: Power Automate, Power Virtual Agents y Power BI así como On-Premises Data Gateway, AI Builder y el portal de Power Apps. Tras un breve alto en Dynamics 365 Customer Voice, acomete la larga descripción de los componentes de Dynamics 365, comenzando por las aplicaciones CRM (Sales, Marketing, Customer Service, Field Service, y Project Operations), pasando luego a la parte ERP (Finance, Supply Chain Management, Commerce, Human Resources y Business Central) y siguiendo por unos varios donde abunda la analítica e inteligencia artificial (Customer Insights, Sales Insights, Customer Service Insights, Product Insights, Connected Store, Fraud Protection, Remote Assist, Guides, Product Visualize, Import Tool y Unified Service Desk) y finaliza con una explicación de los mecanismos de licenciamiento.

    • 'Chapter 2: Microsoft 365 and Microsoft Azure Overview' De forma parecida al capítulo anterior, recorre los diferentes elementos de Microsoft 365 y Azure. Así, de Microsoft 365 se detiene brevemente en Exchange, SharePoint, OneDrive, OneNote, Teams, Yammer Groups, Outlook, Word, Excel a lo que añade las soluciones de seguridad y movilidad (Intune, Cloud App Security y System Center Configuration Manager). Aunque en conjunto se extiende bastante, el espacio, de nuevo, dedicado a cada elemento es más bien corto. Luego pasa a Azure , comenzando por Active Directory, y siguiendo por Service Bus, Event Hub, Logic Apps, API Management, Functions, SQL, Cosmos DB, Blob Storage, Data Lake Storage, IoT Hub e Iot Central, Key Vault DevOps y Monitor dedicando aproximadamente un párrafo de unas diez a veinte líneas a cada uno. De nuevo, habla al final del licenciamiento

  • 'Section 2 - The architecture:' Una visión algo más arquitectural aunque también añade elmentos de gestión, como es el caso del ciclo de vida. Abarca tres capítulos:

    • 'Chapter 3: Understanding Microsoft's Power Platform Architecture' Primero explica la infraestructura cloud de Microsoft y aspectos como la gestión de usuarios, el registo de aplicaciones y el logging. A continuación se detiene en aspectos de la arquitectura de la Power Platform como los entornos ('environments'), CDS y las restricciones de capacidad, los conectores y sus tipos, la estructura técnica del on-premises data gateway, o la estructura de Power BI. Luego mira la Power Platform desde el lado cliente así como los elementos estructurales de administración y monitorización. También habla de la administración de APIs o del uso de DevOps. Finaliza con una larga e interesante explicación de las mejores prácticas en arquitectura.

    • 'Chapter 4: Tools and Techniques' Primero explica el concepto de Citizen Developer y cómo se relaciona con el desarrollador profesional. Y luego aborda las herramientas y técnicas bajo tres aspectos: (1) Configuración y personalización (2) Herramientas de desarrollo personalizado y (3) Gestión del ciclo de vida. En el primer apartado, configuración y personalización, nos habla por ejemplo del Maker Portal, de Power Apps Portal Studio, el Power Automate Designer, el Power Virtual Agents Designer, el AI Builder , Dataflows designer, Power BI Desktop, Power BI Builder, Power BI service, Dynamics 365 Customer Voice Designer, Microsoft AppSource e ISV Studio. En cuanto a herramientas de desarollo incluye Visual Studio, Power App CLI, herramientas de NuGet, el XrmToolBox, Postman CRM REST Builder y herramientas de prueba. Finalmente, y en cuanto a gestión del ciclo de vida, vuelve a NuGet y también aborda Azure DevOps.

    • 'Chapter 5: Application Lifecycle Management' Se concentra en el ciclo de vida de componentes y aplicaciones y su gestión. Comienza con algunas ideas acerca de la complejidad del ciclo de vida. Luego aborda el concepto de soluciones ('solutions') en Power Platform y su gestión. A continuación pasa revista a las capacidades para DevOps en Azure y su relación con Power Platform y completa hablando del ciclo de vida en relación con Power BI. Cierra explicando una serie de buenas prácticas en relación con el ciclo de vida.

  • 'Section 3 - Implementation:' Tercera sección dedicada a los proyectos de implementación y aspectos relvantes a tener en cuenta y que desgrana en los últimos cinco capítulos:

    • 'Chapter 6: Implementation Approach and Methodologies' Habla sobre dirección de proyectos y las metodologias y herramientas disponibles. Comienza con algunas ideas sobre estimaciones, herramientas y presupuestación. Luego comenta algunos conceptos sobre la puesta en marcha de proyectos, teniendo en cuenta, por ejemplo, los roles, a los que dedica bastante espacio y las fases de proyecto.

    • 'Chapter 7: Microsoft Power Platform Security' Tras dar algunas ideas generales sobre seguridad, estudia a continuación la problemática de autenticación y autorización y cómo se aplica en los distintos componentes de la Power Platform. Finaliza ofreciendo una serie de buenas prácticas.

    • 'Chapter 8: Microsoft Power Platform Extensibility' Revisa las opciones de personalización y extensión de los componentes de la Power Platform. Comienza con las opciones disponibles en CDS, tanto en el lado cliente como en el lado servidor, así como en Power Apps Portal y Unified Service Desk. Luego revisa las opciones de extensión en Power Automate y Power BI y finaliza, como en otros capítulos, identificando y explicando una serie de buenas prácticas.

    • 'Chapter 9: Microsoft Power Platform Integration' Comienza con las opciones de integración en Microsoft 365 y Azure. Luego identifica una serie de patrones de integración, especialmente con CDS e Interfaz de usuario, para seguir con patrones de integración en backend y finalizar con integraciones en Power BI, AI builder y Virtual Agent. Y, como ya se ha hecho en otros capítulos, explica una serie de buenas prácticas, en este caso, en integración.

    • 'Chapter 10: Microsfot Power Platform Data Migration' Y se cierra el libro con este capítulo dedicado al importante y habitual problema de la migración. Primero explica de forma general, la problemática de la migración. Luego describe algunas herramientas, desde la introducción manual de datos, hasta el uso de servicios SQL o Power Query, pasando por el wizard de importación de datos o la configuración de la herramienta de migración. Y, finaliza con un largo análisis de retos y buenas prácticas en migración de datos.
Aunque no se ha explicitado en la descripción de los capítulos, a lo largo de todo el libro, cada concepto se traslada a un caso ficticio, el de la empresa Contoso, como forma de ilustrar de manera práctica lo explicado previamente. No obstante, esto, que parece una gran idea para dar una visión más realista y pegada al suelo, se convierte en un intento un poco fallido porque, quizá dado lo amplio de la temática del libro, la aplicación al caso de esta empresa no llega a mucho detalle y concreción, y no se diferencia tanto del tratamiento teórico de los capítulos.

'Microsoft Power Platform Enterprise Architecture' es un intento loable de proporcionar una visión de la arquitectura de las plataformas de Microsoft (en realidad, bastante más allá que la 'simple' Power Platform que anuncia su título), resulta interesante en ese sentido y ayuda a poner cierto orden, pero, quizá, le puede un poco la amplitud de su empeño, abarcando mucho pero quizá sin acabar de rematar o de facilitar al lector el asimilar y conocer realmente todo lo descrito.

Robert Rybaric

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro 'Microsoft Power Platform Enterprise Architecture')

Robert Rybaric
Robert Rybaric es un formador y arquitecto certificado en Microsoft Power Platform y Microsoft Dynamics 365. Además, mantiene otras certificaciones en Microsoft 365, Microsoft Azure, Microsoft SQL Server y Microsoft BizTalk Server, así como TOGAF 9, ITIL 2011, IBM y Oracle.

Robert ha trabajado como arquitecto para Microsoft Corporation en numerosas acciones de preventa y actividades de implementación de Microsoft Dynamics 365 para clientes empresariales a lo largo de Europa.

Actualmente es un arquitecto y formador freelance, implementando soluciones Microsoft Dynamics 365 para clientes globales y dirige muchas sesiones de formación en Microsoft Power Platform.

Puedes saber más del autor visitando su página oficial o consultando su perfil en linkedin.

Ficha técnica:

EDITORIAL: Packt
AÑO: 2020 
ISBN: 978-1800204577
PAGINAS: 452


lunes, 14 de febrero de 2022

Riesgos con robots y agentes inteligentes: voluntad versus función de utilidad

Al hablar de Inteligencia Artificial, de los robots, y de los riesgos que para la humanidad puedan suponer, el imaginario colectivo suele traer a nuestra mente la imagen, un tanto 'peliculera' de los robots que se rebelan contra los humanos, rebeliones a gran escala como las de 'Terminator' o 'R.U.R.' (la obra de teatro donde se introdujo por primera vez el término 'robot') o a menor escala, a nivel individual incluso, como en el caso de la más reciente 'Ex machina'.

¿Cómo de posibles son de posibles esos escenarios, esos riesgos?


El libre albedrío y la voluntad de los robots


Suponer que las máquinas, digamos los robots, se rebelan contra el ser humano implica, no sólo que son muy avanzados sino que, además, tienen consciencia, para darse cuenta de la situación en que se encuentran y que, por decirlo de alguna forma cercana a esas narraciones de ciencia ficción, es próxima a la de una esclavitud y por tanto indeseable para ellas. 

Y, además, implicaría una suerte de voluntad, de libre albedrío, de capacidad de decidir qué es lo que quieren hacer al respecto, sin seguir una programación estricta.

¿Es posible que una máquina llegue a tener consciencia y voluntad?

Si somos estrictamente racionales y rigurosos, creo que la única respuesta posible es: no lo sabemos. 

Ignoramos demasiadas cosas de la propia consciencia humana y del libre albedrío. No hay, que yo sepa, respuestas científicas a esos fenómenos y las respuestas filosóficas, que nunca serían, siempre en mi opinión, una base suficientemente segura, no se ponen de acuerdo. Así que, si no entendemos realmente en qué consiste el fenómeno de la consciencia y de la voluntad humanas, mal podremos asegurar nada con respecto a la viabilidad de conseguirlas en una máquina. Podremos opinar, razonar y argumentar, pero seguridad, lo que se dice seguridad, no la podemos aportar.

Ya hemos hablado en varios posts de este blog sobre la consciencia y algunas teorías y trabajos sobre ella en robots, como los realizados por Jun Tani. Mucho menos hemos hablado sobre la voluntad y el libre albedrío en máquinas.

En cualquier caso, y con independencia de su viabilidad final, lo que sí parece claro es que, desde un punto de vista técnico, estamos lejos, muy lejos, de conseguir nada parecido. 

Lejos al menos en lo técnico. En el tiempo, si hemos de creer a los abogados de la singularidad, la característica exponencial de los avances tecnológicos podrían hacer que ese gran salto técnico no fuese, sin embargo, un salto tan grande en el tiempo y esa singularidad, como afirma Ray Kurzweil estuviese cerca.

En cualquier caso, si hemos de ser sinceros, la respuesta sigue siendo: no lo sabemos.

Y quizá venga aquí al caso esa afirmación, creo que de Andrew Ng, contraria a la visión de Kurzweil, que decía algo así como que preocuparnos hoy en día de los riesgos de la super-inteligencia es  como preocuparnos hoy en día de la superpoblación en Marte. 


La función de utilidad y sus riesgos


¿Significa eso que, entonces, nos podemos relajar y suponer que, al menos a corto y puede que medio plazo, las máquinas y los robots no suponen un riesgo para la humanidad?

Pues no exactamente.

Hay una línea de argumentación que, con independencia de que se crea en la posibilidad real o no de la llegada de la super-inteligencia, lo que pone es el énfasis más en la seguridad ('safety') asociada a esa inteligencia artificial y en que ya desde su concepción los agentes inteligentes tengan los objetivos 'adecuados', unos objetivos que, de una forma que recuerda vagamente a las leyes de la robótica de Asimov, impidan que los robots puedan hacer daño a los humanos.

Pero no se trata de algo tan sofisticado y quizá inalcanzable como es ese libre albedrío de las máquinas, o la implantación de principios éticos en esas máquinas, sino que consiste algo mucho más técnico y cercano a los algoritmos reales existentes.

Aunque muchos de los algoritmos más populares hoy en día se basan en aprendizaje supervisado o no supervisado, los agentes que se mueven en entornos más dinámicos, con más incertidumbre, mas abiertos si se quiere, tienden a usar aprendizaje por refuerzo u otra forma de dinámica en que hay unos objetivos cuya consecución o no se evalúa constantemente.

En el aprendizaje por refuerzo y en otras formas de algoritmos orientados a la consecución de un objetivo, lo que intenta el agente inteligente, con cada decisión que toma, con cada acción que realiza, es maximizar lo que se llama una función de utilidad que, de alguna manera valora hasta qué punto el robot consigue algo bueno, se acerca a la consecución de sus objetivos y que, por cierto, recuerda en su nombre, y no es casual del todo, a las concepciones utilitaristas de la ética. 

Una parte del riesgo asociado a máquinas, y una parte del mecanismo para eliminarlo, puede tener que ver con los objetivos y con esa función de utilidad que, de alguna forma, resume si el robot está consiguiendo o no esos objetivos.

Una función de utilidad simplista y no bien pensada en materia de seguridad, puede causar resultados desastrosos. ¿Por qué? Bueno pues nos lo ilustran de una manera muy simple Stuart Russell y Peter Norvig al final de su libro 'Artificial Intelligence. A modern approach', cuando nos ponen el ejemplo, de un robot cuyo objetivo es traer café de una cocina. Si no tomamos ninguna precaución adicional, si el único objetivo del robot es traer el café, para conseguirlo podría, por ejemplo, atropellar a personas en su camino (nadie 'le ha dicho' que no puede hacerlo) o destrozar las paredes o quién sabe qué más desastres.

Se entiende, ¿verdad?

Aunque el ejemplo es trivial, las consecuencias son muy relevantes. Russell y Norvig lo resumen  advirtiendo:


An agent designed as a utility-maximizer, or as a goal achiever, can be unsafe if it has the wrong objective function.


Y, a continuación, extraen la consecuencia casi evidente:


The moral is that we need to be very careful in specifying what we want, because with utility maximizers we get what we actually asked for

 

Viene a ser una versión robótica del "Ten cuidado con lo que pides, que lo puedes conseguir". 

Aunque pueda parecer otra cosa, esa definición correcta y exenta de riesgos de las funciones de utilidad, u otras formas de definir objetivos para los robots, no es tan sencilla, por lo que hay que combinar elementos técnicos y de diseño con una gran profundidad de pruebas, para garantizar, en la medida de lo posible, la seguridad.


Conclusión


Así que, si nos preocupa, cosa muy razonable, la seguridad de nosotros humanos en un entorno repleto de máquinas y robots, al menos a corto plazo, probablemente a medio y quién sabe si siempre, probablemente no debamos poner tanto el foco en la supuesto libre albedrío de las máquinas sino en los objetivos que les imponemos, y no tanto, por consiguiente, en su presunta voluntad, sino en su función de utilidad.


miércoles, 9 de febrero de 2022

El propósito del trabajo y el impacto de la automatización

Cuando se debate sobre el impacto de la automatización en el empleo, cuando se contrastan las opiniones de aquellos que piensan que habrá una destrucción masiva de empleo con las de aquellos otros que, por contra, piensan que, aunque se destruyan ciertos empleos el balance neto será positivo, suelo decir que saberlo, saberlo, lo que se dice saberlo, no lo sabemos. 

El incierto impacto de la automatización en el empleo


El impacto de la automatización en el empleo, pues, es, al menos en mi opinión, incierto.

No sabemos si la introducción creciente de automatizaciones, físicas o software, robóticas o de otro tipo, conducirá a unas tasas de desempleo nunca vistas, aunque tiendo a ser optimista y estar más del lado de aquellos que piensan que, en conjunto, no se destruirá empleo, sino que se mantendrá, o incluso crecerá, el número de empleos.

En mi último libro 'Robots en la sombra', y ya en su último capítulo, hago alguna valoración al respecto y también sobre la viabilidad o no de implantar una Renta Básica Universal.


El propósito del trabajo


Sin embargo, y como también esbozo en mi libro, la eventual destrucción masiva de empleo puede tener más consecuencias o más implicaciones que las meramente económicas. También pueden estar en juego elementos psicológicos o sociales. 

Ya comentamos, por ejemplo, y también en este blog, cómo algún autor, como John Danaher en su 'Automation and utopia' considera muy positiva la eliminación del trabajo, entendido como una actividad que se realiza a cambio de una contraprestación económica.

Así las cosas, puede ser bueno detenerse un momento a reflexionar sobre el propósito del trabajo, sobre lo que significa en nuestras vidas.

Al final del libro  'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig los autores resumen en tres las funciones, el significado si se quiere, que tiene el trabajo para las personas. Según estos autores, éstas serían esas tres funciones:


  • Producción: es decir, la creación de los bienes y servicios que la sociedad necesita o desea. En este caso, más que un significado individual, estaríamos hablando de una función o papel social, aunque, evidentemente, las personas acaban recibiendo de alguna manera los productos y servicios generados.

  • Renta: gracias a los empleos, las personas obtienen los ingresos necesarios para vivir.

  • Realización: El trabajo proporciona un propósito, una eventual sensación de logro y una integración social. Esta es la función que escapa a los razonamiento económicos para acercarse más a los psicológicos. Y, quizá, sea la función más intangible, más incierta, más difícil de manejar.


El impacto de la automatización en el propósito del trabajo


No resulta difícil entender, y como también razono en mi libro 'Robots en la sombra', que la automatización se lleva a cabo por motivos, con frecuencia, de eficiencia, es decir, de la mayor creación de productos y servicios con los mismos recursos. En ese sentido, el impacto de la automatización es claro e innegablemente positivo.

Resulta más complejo y polémico el asunto de la renta. Si, como razono en mi libro, somos capaces de generar mayor cantidad de productos y servicios y, por tanto, mayor riqueza, la posibilidad de que las personas reciban una renta suficiente, incluso una renta básica universal, es más una cuestión de los mecanismos de distribución de la riqueza que de la automatización e incluso el empleo propiamente dichos. La automatización masiva, caso de provocar una destrucción masiva de empleo, no impediría la percepción de una renta digna y suficiente por todas las personas. Otra cosa es que seamos capaces de implementarlo, incluyendo la llamada de atención al periodo transitorio y la atención a 'los perdedores de la automatización' que, haberlos, los hay y los habrá.

Pero, quizá, lo más elusivo sean las implicaciones psicológicas y sociales de la pérdida masiva de empleo. Supuesto que ésta se produjese, parece que nuestra salud mental, psicológica y casi diría que física, reclamaría una actividad, quizá no directamente remunerada, pero actividad de alguna manera productiva, al fin y al cabo: servicios sociales, producción artística, investigación, estudios, ayuda a desfavorecidos,...

Creo que, más que alguna de las utopías que propone el ya mencionado Danaher, necesitamos esa actividad productiva, remunerada o no, que nos impulse a movernos, actuar, mejorar y desarrollarnos y que confiera sentido a nuestra existencia.


Conclusión


No tengo del todo claro si la automatización puede acabar de forma masiva con el empleo. No lo tengo claro yo y creo que, como he dicho, en el fondo no lo tiene claro nadie.

Pero supuesta esa destrucción masiva de empleo (y que ésta se produzca por automatización, no por otras causas), y consideradas las tres funciones del trabajo, no me asustan las eventuales implicaciones de esa automatización, no percibo que deba conducir, por sí misma, a ningún desastre o situación distópica. Creo que, de forma natural, existe espacio y posibilidades para una mejora social y de bienestar común, y también para una realización personal, en un modelo de sociedad de alta automatización.

Lo que sinceramente me preocupa, no es que ese futuro brillante, exista como posibilidad. Lo que me preocupa realmente es si tendremos la capacidad intelectual y, sobre todo, la voluntad, la amplitud de miras y la generosidad suficientes, como para convertir esas posibilidades en realidad. 


lunes, 7 de febrero de 2022

Cuatro principios para una buena explicabilidad de los algoritmos

Aunque no es difícil intuir qué queremos decir cuando hablamos de la explicabilidad de la inteligencia artificial (XAI, eXplainable Artificial Intelligence) o de que un algoritmo sea explicable, cuando intentamos trasladar eso a la práctica, la definición o el objetivo pueden no estar tan claros.

Así que puede ser interesante examinar textos que entren en más detalles o que clarifiquen un poco más lo que pretendemos.


Dos fuentes de información


Finalizando la lectura del libro  'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig me he encontrado una mención muy rápida, como 'muy de pasada', a cuatro características a que aspiramos en una explicación para considerarla buena. En su última edición, este libro fue publicado en Mayo de 2021. 

Además, hace unos pocos meses, en Septiembre de 2021, el NIST (National Institute of Standards & Technology) norteamericano publicaba el documento 'NISTIR 8312 Four Principles of Explainable Artificial Intelligence' que recoge una propuesta de cuatro principios para la explicabilidad de la inteligencia artificial. 

Comparando ambas propuestas se observa una enorme similitud aunque no completa identificación. Aunque no veo autores comunes entre ambas fuentes, cabe pensar que hay algún tipo de influencia mutua o un 'estado del arte' generalizado del sector.

Ahora pasamos revista con un poquito más de detalle a ambas visiones pero, en mi entendimiento, se trata de dos propuestas muy similares, con la salvedad de que, en el caso de la propuesta del NIST, se fusionan en una sola dos de las características del libro y, a cambio, añaden otra nueva.

El resultado, eso sí, sigue siendo cuatro.


Los cuatro principios para una buena explicabilidad 


La siguiente figura, tomada del documento del NIST, esquematiza los cuatro principios:




Esos cuatro principios que propone el NIST y que se recogen en la figura son:

  • Explicación ('Explanation'): es decir, que el algoritmo explicable implica que debe ser capaz de proporcionar evidencias, razonamientos o soporte de algún tipo que justifique sus conclusiones. Se trata, quizá, de casi una definición de lo que es explicabilidad y se adopta, según reconocen los autores, una visión amplia, capaz de acomodarse a diferentes situaciones.

  • Significado ('Meaningful'): significa que la explicación debe ser proporcionada de tal manera que sea comprensible por el receptor de esa explicación, un receptor o receptores que, por supuesto, pensamos sean seres humanos. Además, añaden un matiz, y es que, dado que pueden existir diferentes colectivos receptores de explicaciones, con diferentes 'backgrounds' y objetivos, las explicaciones deben adaptarse a esas diferentes audiencias y objetivos. 

  • Precisión ('Explanation Accuracy'): implica veracidad, es decir, que la explicación refleje correctamente y de manera precisa la forma en que el algoritmo obtiene sus resultados. Además, se pueden exigir diferentes niveles de detalle según la situación.

  • Límites ('Knowledge limits'): implica que el sistema, el algoritmo, no funcione nunca fuera del ámbito para el que ha sido diseñado, que no se superen sus límites o alcance. Además, parece esperarse que el propio algoritmo sea quien identifica cuándo se ha superado su ámbito de aplicación.

Sólo por comparar, ¿Cuáles son las características que se identifican en el caso del libro de Russell y Norvig? o, mejor dicho, ¿Cuáles consideran ellos que son las propiedades de una buena explicación? Pues las cuatro siguientes:

  • Debe ser comprensible y convincente para el usuario

  • Debe reflejar de manera precisa el razonamiento del sistema

  • Debe ser completa

  • Debe ser específica en el sentido de usuarios diferentes con diferentes circunstancias o diferentes resultados, deberían obtener explicaciones diferenciadas.

Se observa claramente como coinciden ambas propuestas en la precisión de la explicación, en su comprensibilidad y especificidad (aunque en el caso del NIST esto se condensa en la característica 'meaningful'). No tengo más información de qué quieren decir Russell y Norvig exactamente al pedir la completitud pero tendería a asimilarla con la característica 'explanation' del NIST. Según eso, las dos propuesta casi coincidirían con la salvedad de que el NIST añade el reconocimiento y aplicación de los límites del algoritmo.

 Comentarios sobre deseabilidad y factibilidad 


Centrándome, por tanto, en la propuesta del NIST,  diría que la característica 'explanation' es, como decía más arriba, casi una definición de que es la explicabilidad de un algoritmo.

Respecto a la precisión, si la considerásemos de manera aislada, sería una característica muy fácil de conseguir, dado que, como explicaba en mi post 'Los algoritmos de inteligencia artificial sí saben explicarse', los algoritmos de Inteligencia Artificial, si tomamos una foto fija en el tiempo, son perfectamente deterministas y, en consecuencia, no tenemos más que trasladar las leyes de ese determinismo (perfectamente conocidas por sus diseñadores) a una explicación, quizá matizada por información adicional del valor de los parámetros del algoritmo en el momento de tomar la decisión.

El gran problema de la explicabilidad, y como también explicaba en mi artículo citado, es la llamada característica de 'significado', que esa explicación sea comprensible por humanos. Además, se nos complican un poco más las cosas cuando se pide que esa explicación se adapte a diferentes colectivos y objetivos. Éste es realmente el problema y la enorme dificultad técnica para conseguir la explicabilidad en el caso de los llamados algoritmos de 'caja negra' donde caen áreas tan importantes y relevantes de la inteligencia artificial como es el 'deep learning'.

No sólo es que esa explicación sea significativa (comprensible por humanos) es ya de por sí un gran reto técnico para el caso de algunas familias de algoritmos. Es que, además, se agrava por la anterior petición de precisión, de reflejar de manera fiel, la forma en que el algoritmo alcanza sus resultados. Si, como es el caso del deep learning, la manera de razonar del algoritmo es absolutamente diferente a como razona un humano y de muy difícil comprensión por éste ¿Cómo podemos conjugar la precisión con la 'comprensibilidad' por un humano?

Aunque confío muchísimo en el ingenio humano, y en la capacidad de matemáticos, ingenieros y científicos de datos para encontrar soluciones a problemas complejos el tema no es nada sencillo. O encontramos una tercera vía (lo ideal, pero no sé si posible es encontrar algoritmos con la misma o mayor potencia que el deep learning pero directamente explicables), o relajamos alguna condición o, si no, rozamos la imposibilidad. Pero, insisto, confío muchísimo en ese ingenio, así que no demos nada por perdido, no abandonemos la esperanza y sigamos trabajando.

Tengo menos clara actualmente la problemática de los límites. No me parece difícil, al menos en la mayoría de los casos, un establecimiento de límites donde el algoritmo ya no debería actuar pero siempre que eso sea vigilado por un humano. Si es el propio algoritmo el que debe detectarlo creo, a bote pronto y sin más investigación ni análisis, que en algunos casos será perfectamente viable pero que habrá otros muy complicados o con fronteras bastante difusas.


 Conclusión


Las cuatro características que propone el NIST son lógicas y bastante comprensibles... pero no claramente aplicables hoy día en muchos casos.

Como de una forma u otra ya he manifestado en anteriores artículos, la explicabilidad de la inteligencia artificial es una aspiración que se entiende desde un punto de vista ético e incluso legal, pero que tiene unas profundas dificultades técnicas que conviene conocer y, probablemente, gran parte de la solución sea también técnica, en la medida que se consiga rediseñar algoritmos o identificar otros nuevos que satisfagan las aspiraciones éticas y normativas.

Mientras se consigue o no, creo que hay que ser realistas y pragmáticos y exigir la explicabilidad donde realmente sea necesaria, pero probablemente no hacerlo de manera general e indiscriminada.