miércoles, 27 de septiembre de 2023

Las bases de conocimiento simbólico y la inteligencia artificial generativa

No cabe duda de que a nivel técnico, las protagonistas indiscutibles de la inteligencia artificial moderna son las redes neuronales, bajo el cada vez más amplio paraguas del deep learning.

Y en los últimos meses, con el auge imparable (y merecido, diría yo), de la inteligencia artificial generativa, muy especialmente en lo relativo a grandes modelos de lenguaje y modelos fundacionales, parece como si no existiese nada más que redes neuronales. Pudiera parecer, que, 'la cosa' consiste únicamente, en hacer redes neuronales cada vez con más capas, cada vez con más neuronas, cada vez con más parámetros, y de una forma, casi mágica, esas redes son capaces de aprender casi cualquier cosa, y en concreto, el uso del lenguaje.

Y parece como si otras formas de inteligencia artificial, como la más tradicional, como la que se basa en lógica, en representación simbólica del conocimiento o el algoritmos de búsqueda en un espacio de estados ya no tuviesen ningún lugar en la inteligencia artificial actual.

Pero eso no es así del todo... y puede serlo aún menos en el futro.


La emergencia en las primeras redes neuronales: perceptrones y capas densas.


Las primeras redes neuronales, las que probablemente más se acerquen a la emulación del cerebro humano, sí parecían apuntar un poco en esa dirección.

Me refiero al hecho de que, realmente, partían de una neurona artificial relativamente simple, el perceptrón, y a partir de ese elemento, se constituían redes neuronales en que se establecían capas de este tipo de neuronas que se interconectaban luego, 'todas con todas' formando las denominadas capas densas y el conjunto, el denominado perceptrón multicapa.

Aunque no deja de ser una simplificación lo que voy a decir, esos conjuntos de neuronas, ese perceptrón multicapa, era una especie de masa (no gelatinosa sino digital) de neuronas de las cuales, mediante algoritmos relativamente simples, surgían capacidades inteligentes.

Hablo del perceptrón multicapa y de las capas densas como algo del pasado pero no es así: siguen siendo muy utilizadas y, aparte de otras muchas cosas, resultan especialmente adecuadas para hacer una clasificación, usándose, por ejemplo, como capas finales en soluciones de visión artificial. 

En cualquier caso, y aunque insisto que es una simplificación, este tipo de capas y redes, sí que parecen responder, al menos hasta cierta medida, a la idea de una 'masa de neuronas' sin ningún tipo de elemento simbólico y sin casi ninguna 'dirección' por parte de los diseñadores.

Y ahora explico a qué me refiero con 'dirección'.


La dirección: transformers y grandes modelos de lenguaje.


Cuando miramos las arquitecturas de redes neuronales más novedosas las que se utilizan en la inteligencia artificial generativa y los grandes modelos de lenguaje, los BERT, GPT, y Transformers, por ejemplo, se percibe mucho más eso que he denominado 'dirección'.

Y lo que quiero decir es que los diseñadores de estas redes introducen muchos artificios, muchos elementos de diseño, que se alejan de la idea de una simple 'masa de neuronas' de la que de una forma, no del todo mágica ni del todo espontánea, pero sí un poco maravillosa, un poco sorprendente, emergen comportamientos inteligentes, y pasamos a otras en que el diseñador sabe muy bien lo que está buscando y por qué establece las arquitecturas que establece y los algoritmos que establece. Hay, pues, una dirección. 

Así se ve en mecanismos como la autoatención ('self-attention'), la multicabecera ('multi-head') y, en general, todo el diseño de este tipo de redes donde, aunque existe experimentación y prueba y error, siempre lo hace dentro de un marco en que 'el diseñador' sabe muy bien lo que busca y establece, intencionadamente, los mecanismos para ello.  

En el fondo, lo que denominado dirección, vendría a ser diseño, diseño racional y consciente, diseño metódico, diseño con motivaciones y apuntando a unos fines.


Un paréntesis: lógica simbólica y representación del conocimiento.


Y en toda esta 'historia' parece que no tienen ningún lugar las formas de inteligencia artificial más tradicionales, las que se basan en la representación simbólica del conocimiento y en las leyes de la lógica.

En esas formas de inteligencia artificial que ahora percibimos como antiguas, como 'viejunas' y que apenas ocupan espacio en la literatura 'popular' sobre inteligencia artificial, la inteligencia no 'emergía' de una masa de neuronas sino que se establecían unas bases de conocimientos, expresados, por ejemplo, mediante hechos y predicados (como se usaba en LISP), o como unos grafos con nodos que representaban entidades y arcos que representaban relaciones entre ellas (en un modelo que recuerda a los modelos relacionales usados en bases de datos) o en reglas como las que luego usaban los motores de inferencia de los antiguos sistemas expertos o, incluso, como simples espacios de estados.

Y en esas formas de inteligencia artificial, se usaba la lógica, proposicional o booleana,  o la búsqueda de muchos tipos sobre ese espacio de estados.

Y hablo en pasado, pero tampoco es cierto. La lógica sigue muy viva y la búsqueda en espacios de estados también.

No sólo eso, es que puede que asistamos a una 'resurrección' de la inteligencia artificial simbólica y de la representación del conocimiento.


Teoría y aspiración: la emergencia neuronal de símbolos


A nivel algo más aspiracional que real, la aspiración surge un poco de, por un lado, el deseo de una inteligencia artificial más general y más parecida a la humana y, por otro, de cómo entendemos que podría funcionar el cerebro humano.

Cuando enfocamos el funcionamiento del cerebro humano desde el punto de vista de la psicología, la antropología o incluso la lingüística. tratamos el funcionamiento del cerebro, especialmente su funcionamiento consciente, a un nivel simbólico. Parece que el cerebro trabaja con símbolos (notablemente signos lingüísticos), e imágenes y representaciones más o menos estructuradas del conocimiento que contienen esos símbolos. Y parece que razona, al menos cuando lo hace de forma consciente, con base en reglas más o menos lógicas.

Sin embargo, si miramos a un nivel más microscópico, en el modo en que lo hace la neurociencia, vemos 'masas de neuronas' interconectadas en patrones complejísimos no del todo conocidos aunque técnicas como el fMRI nos han permitido hacer unos 'mapas del cerebro' aproximados.

El paralelismo con la inteligencia artificial está servido, y no es en absoluto casual: tenemos la vieja inteligencia artificial simbólica, que parece acoplarse a la visión más de alto nivel del cerebro, más próxima a la visión psicológica, y tenemos la visión moderna de la inteligencia artificial, más próxima a la neurociencia, con 'masas de neuronas' interconectadas que dan lugar a comportamientos emergentes inteligentes.

Y si parece que en el cerebro humano ambas visiones coexiste, y si parece además que están relacionadas, que los símbolos y la lógica surgen de un sustrato neuronal, parece razonable la teoría, la aspiración y la investigación en busca de que las redes neuronales artificiales pudieran servir de sustrato de un nivel más simbólico, más lógico, más basado en conocimiento y que esa visión simbólica emergiese de alguna forma del sustrato neuronal. 

En este campo hay, como digo, líneas de trabajo e investigación aunque, hasta donde se me alcanza, aún estamos lejos de resultados notables.


Las bases de conocimiento en los grandes modelos de lenguaje


Sin embargo, pudieran existir algunos atisbos de coexistencia entre una inteligencia artificial más simbólica y, sobre todo, más basada en el conocimiento, y el deep learning materializado en los grandes modelos de lenguaje.

Gran Modelo de Lenguaje alimentado con bases de conocimiento.
Fuente: Gerhard Paas y Sven Giesselbach

Descubro algunos de estos intentos leyendo el libro 'Foundation Models for Natural Language Processing: Pre-trained Language Models Integrating Media' de  Gerhard Paas y Sven Giesselbach, un libro complejo pero que, al menos hasta el momento, me está pareciendo muy bueno.

En una sección nos habla de modelos para enriquecer este tipo de modelos con bases de conocimiento factuales ya sea durante el entrenamiento o durante el uso. Describe en bastante detalle (aunque yo lo haré someramente) cuatro formas de dicho enriquecimiento, a saber:


  • Sección de WordNet.
    Fuente: Gerhard Paas y Sven Giesselbach
    'Embeddings' de bases de conocimiento:
    Se parte de bases de conocimiento existentes del tipo de WordNet que adopta la forma de una especie de grafo con entidades y relaciones y se convierte esa información en 'embeddings' similares a los que se utilizan para representar el lenguaje natural. Los autores citan algunos modelos que actúan de esta forma como TransE, KEPLER, KnowBERT o ERNIE-THU.

  • Codificación textual de tablas: La idea es aportar hechos y conocimiento recogido originalmente en forma de tablas, un formato muy común, por ejemplo, en el mundo empresarial. Para esta situación se utilizan enfoques como el codificar la tabla como lenguaje en un formato especial (tal y como ejemplifican los autores con TURL).

  • Codificación textual de bases de conocimiento: Un poco en la línea del primer caso, aunque tratado de forma diferente, en este caso lo que se intenta es convertir las relaciones en una base de conocimiento en texto que es lo que luego de codifica con los correspondientes 'embeddings'. Esto se trata con diferentes variantes de las que los autores nos mencionan y explican brevemente los casos de WKLA, CoLAKE, LUKE, EWISER, PET y TeKGen.

  • Adición de hechos: Es una forma de recolectar información adicional sobre conocimiento muy específicos. La idea básica es que un módulo, el 'recolector' recopila la información adicional de nuevas fuentes y la codifica como 'embeddings' mediante un modelo de tipo BERT y otro módulo, que denominan 'lector' recibe el 'embedding' tanto del 'prompt' de entrada como de la información adicional recopilada.

Si observamos todos estos modelos, realmente no estamos generando información simbólica a partir de una información neuronal sino que operamos en sentido contrario: recopilamos información nueva, que procede en general de fuentes de tipo simbólico (es especialmente notorio en ese sentido el primero de los casos descrito), que luego codificamos y convertimos en 'embeddings' para que el gran modelo de lenguaje lo trate de manera casi uniforme con el resto del texto.

Es decir, realmente no estamos cumpliendo, ni de lejos, la aspiración de generar información simbólica emergente a partir de un modelo neuronal pero, de todas formas, si que son casos que mezclan ambos tipos de enfoques y eso, en sí mismo, me parece muy interesante y podría abrir la puerta a nuevos modelos mixtos.


Conclusión


Aunque estamos lejos de un modelo mixto neuronal-simbólico que emule lo que, al parecer, realiza el cerebro humano, hay líneas de investigación y experiencias reales que de alguna forma mezclan ambas visiones incluyendo el caso la interacción con grandes modelos de lenguajes y eso, aparte de los resultados a corto plazo, pudiera abrir interesantísimas y muy prometedoras vías de evolución.


lunes, 25 de septiembre de 2023

Dos condiciones para el estatus moral de los robots

No hace mucho en este mismo blog, en el artículo titulado 'Los robots y la definición de humanidad' mencionaba cómo para muchos filósofos y eticistas que se ocupan de roboética o, más en general, de ética de la tecnología o de la inteligencia artificial, un aspecto fundamental para la asignación o no de estatus moral a los robots y, eventualmente, también un estatus jurídico diferente más allá del de cualquier máquina de cualquier tipo, era la sintiencia.

En este post, detallo un poco más este tema, inspirado por la misma fuente, a saber, el libro titulado 'Robot souls' me de Eve Poole.


Las condiciones para el estatus moral de los robots


La autora repasa en ese sentido las aportaciones de varios autores y, en concreto, se detiene un momento en los planteamiento de Nick Bostrom y Eliezar Yudkowsky. Y nos dice que para estos dos autores, existen dos criterios claros, dos criterios que, caso de cumplirse, para los robots o para la inteligencia artificial en general, les conferirían pleno estatus moral. Estos dos criterios son la 'sapiencia' y la 'sintiencia'.

No sólo Bsostrom y Yudkowsky parecen apostar por esta visión, sino que la autora también nos hace ver que, incluso en un texto de la UNESCO, 'Report of COMEST on Robotic ethics', existe un texto en esa línea y que viene a decir que:   


if robot agency progresses much further (sapience), and AI learns how to feel emotions (sentience), there would need to be provision made for some new kind of moral personality and protection in law.


Veamos algún detalle más.


La sapiencia


La sapiencia se refiere a que la máquina, el robot, posea una serie de capacidades asociadas a una inteligencia superior, tal como el propio conocimiento o auto-conciencia ('self-awareness') o el hecho de tratarse de un agente que reacciona con criterios de razón ('reason-responsive').

De alguna forma, es lo que asociamos de forma intuitiva a la inteligencia, pero también a la consciencia, un tema interesantísimo pero muy resbaladizo, elusivo, y sometido a discusión.


La sintiencia


La sintiencia, por su parte, se refiere a la capacidad de sentir emociones, de sufrir y sentir dolor, otro tema igual de interesante e igual de elusivo.


Fenomenología


Aunque no parece que nos resulte demasiado difícil de admitir (no digo que haya unanimidad, pero sí parece que podría ser admitido con relativamente facilidad) que un ser con inteligencia (que incluye auto-conciencia) y sentimientos, se merezca un cierto estatus moral (aunque se trate un ser artificial como un robot), lo que parece mucho más difícil es, no ya digamos conseguirlo, que también, sino incluso el definir en qué consiste esa sapiencia y esa sintiencia.

Y eso es así porque, como ya he comentado más de una vez, en el fondo no sabemos tampoco en qué consiste realmente en los seres humanos. No sabemos exactamente en qué consisten ni las emociones ni la consciencia, por más que nos resulte muy fácil admitirlas, tanto por nuestra propia experiencia subjetiva, que nos hace percibirlas y hasta cierto punto entenderlas, como porque existe una razonable experiencia intersubjetiva que nos hace entender que el resto de seres humanos tienen una experiencia subjetiva de consciencia y emociones similar a la nuestra.

Pero, especialmente cuando nos referimos a terceros, no a nosotros mismos, esa experiencia es, como dirían los filósofos, fenomenológica: asumimos la existencia de consciencia y emociones en nuestros interlocutores en base a lo que percibimos de ellos, pero no tenemos verdadero acceso a su experiencia interna.

Cuando ahora lo trasladamos a robots o algoritmos, debemos intentar decidir de alguna forma si esos robots, si esos algoritmos, poseen consciencia y emociones y hacerlo con base a su manifestación externa., a su fenomenología.

Y eso tiene riesgo puesto que, aquellas soluciones de naturaleza conversacional o social (inteligencia artificial conversacional, inteligencia artificial generativa o robots sociales, por ejemplo) intentan, como es lógico y creo que no criticable, ofrecer un comportamiento externo con apariencia de inteligencia e incluso de empatía y sensibilidad.

¿Cómo acceder a su 'experiencia subjetiva' para saber si son realmente sintientes y sapientes. No se me ocurre (y creo que a nadie se le ha ocurrido hasta ahora) ninguna forma de hacerlo que sea inapelable, que nos convenza a todos. 

Sí que digo que, cuando se profundiza, no en la experiencia externa, sino en las arquitecturas internas de los algoritmos, en su diseño, incluso en el caso de los mas avanzados, se hace muy difícil de creer que, al menos actualmente, tengan nada que se parezca siquiera a una emoción humana  o a una consciencia humana.

Y ello a pesar de que su comportamiento externo sea cada vez más brillante, más 'creíble'... y estoy seguro de que lo será aún más en los próximos meses o como mucho unos pocos años.

Resulta muy difícil de creer en esa eventual sapiencia y sintiencia... pero, pese a mi convencimiento personal, desde un punto de vista teórico no veo cómo rechazarla. Y, sobre todo, no veo ningún motivo objetivo para afirmar que no se pueda alcanzar en algún momento.


Conclusión


Sintiencia y sapiencia son dos eventuales características que podrían conducir a conceder estatus moral a los robots o los algoritmos. Lo difícil será no sólo técnicamente conseguir esa sapiencia y esa sintiencia (suponiendo que sea técnicamente posible y éticamente deseable) sino, demostrar que realmente están presentes y que no estamos hablando de pura fenomenología. 


miércoles, 20 de septiembre de 2023

La integración de los robots humanoides y la inteligencia artificial generativa

Dos de las tecnologías más avanzadas, y dos de las que más me fascinan ahora mismo, son las que tienen que ver con la robótica humanoide (que, en realidad, es la unión avanzada y compleja de muchas tecnologías) y la inteligencia artificial generativa.

Y lo bueno, y lo interesante, es que es posible, y no sólo posible sino que además es muy sencillo, fusionar ambas tecnologías, proporcionando unos resultados sorprendentes, casi futuristas.


La sencillez de unir la inteligencia artificial generativa con un robot


A cualquier lector con una cierta base técnica no le resultará difícil entenderlo e incluso puede que ese lector ya se lo hubiese imaginado. 

Muchas de las capacidades de inteligencia artificial generativa se ofrecen, no sólo como una interfaz de usuario para humanos (como sucede, por ejemplo con ChatGPT), sino también en forma de APIs ('Application Programming Interface'). De hecho, OpenAI, por ejemplo, ofrece esas APIs que permiten la invocación externa de los modelos que utiliza en su ChatGPT o DALL-E, permitiendo, por tanto, usar sus capacidades generativas en materia de texto o imagen por parte de cualquier sistema externo.

Y como digo es tremendamente sencillo. Hace unos meses, y sólo como una prueba de concepto, hice la invocación de un servicio de este API de OpenAI desde un robot RPA (un robot software) y me llevó unos pocos minutos hacerlo, y eso que era la primera vez que utilizaba el API y no la conocía bien. De hecho, era la primera vez en mi vida, creo, que hacía 'con mis manos' la invocación de un API REST desde un software (es que ya hace mucho que no programo salvo detalles muy pequeños y puntuales).

Lo único que hay que hacer ahora es que ese robot externo sea un robot humanoide, cosa absolutamente posible e igualmente sencilla, ya que los robots medianamente avanzados incluyen software de control. Y si lo hacemos si fusionamos un robot humanoide, que, añade, a las capacidades de procesamiento de los modelos de inteligencia artificial, sus propias capacidades sensoras y actuadoras y, en el caso de los robots humanoides más avanzados capacidades de expresión facial y de movimiento 'corporal' razonablemente realistas y acompasados con su expresión verbal, el efecto es espectacular, futurista.

Es posible que tenga sentido en un robot aportar las capacidades generativas, cuando se justifique, como un sistema empotrado local, en lugar de invocar servicios en la nube, pero a corto plazo, esa invocación de APIs en la nube es perfectamente viable y razonablemente práctica.


Robots y una conversación generativa


Si unimos pues a un robot la interacción con un gran modelo del lenguaje, tal y como un GPT (que está detrás del ChatGPT), nos encontraremos con un robot capaz de tener una conversación coherente, la mayoría de las veces acertada y con unos conocimientos en apariencia casi infinitos. Eso es lo que experimentaron hace unos meses los ingenieros de Engineered Arts con su robot Ameca, probablemente uno de los robots humanoides más avanzados y con mejor uso de la expresión facial y corporal. Este es el vídeo que muestra el resultado.




Explican que se quedaron con un modelo GPT3, dado que, aunque probaron con el GPT4, el resultado fue peor. No estoy seguro de ello, pero creo que uno de los motivos puede ser la velocidad. En el video se nota que el robot presenta 'latencia', que tarda en contestar. Y GPT4 es un modelo de lenguaje más potente que GPT3, pero también más lento, a lo mejor ya demasiado lento.

Imaginemos ahora que combinamos un GPT3 estático (sin actualización de datos) con unas capacidades de buscador (como hace Microsoft con su Bing dotado de IA generativa). Con eso, mejoramos la respuesta con información más reciente o de actualidad.


Robots que saben dibujar


Pero esta fusión de robots humanoides con inteligencia artificial generativa puede conseguir mucho más. 

Si ahora nos concentramos en la generación de imágenes, con soluciones de tipo DALL-E, Stable Diffusion o Midjourney, podríamos conseguir robots capaces de dibujar o pintar cuadros. La idea sería generar una imagen a partir de algo que se le pide al robot (o que a éste 'se le ocurre' de forma autónoma) y luego plasmar eso en movimientos del robot orientados a pintarlo realmente. Eso es lo que se muestra en un nuevo experimento con Ameca y Stable Difusion,



Los resultados son relativamente pobres porque las capacidades mecánicas de Ameca en sus manos robóticas, están lejos de ser las adecuadas para hacer un dibujo. Pero nos da una idea de las posibilidades y, sobre todo, la viabilidad.


Robots que saben traducir, programar, componer música y quién sabe qué más...


Los grandes modelos de lenguaje también permiten de forma muy efectiva, reconocer el idioma en que 'se les habla' y 'expresarse' en multitud de idiomas. El icónico robot C3PO de La Guerra de las Galaxias, un robot de protocolo, era capaz, según decía de hablar correctamente seis o siete millones de la galaxia. Pues bien, uniendo un gran modelo de lenguaje como GPT con un robot humanoide, podríamos tener nuestra versión propia de un robot de protocolo capaz de hablar correctamente al menos unas decenas de idiomas de la Tierra.

Y teniendo en cuenta que con inteligencia artificial generativa ya se consigue crear código software o música ¿Qué nos impide tener robots desarrolladores capaces de teclear en un ordenador el código fuente en Python o HTML, o robots compositores capaces de escribir partituras o de robots capaces de tocar al piano una melodía que se 'acaban de inventar'?

 

Los aspectos prácticos de la integración


Técnicamente, nada impide ninguno de esos escenarios, aunque en muchos casos el resultado todavía sería algo pobre, en algún caso bastante pobre, pero no por la parte generativa o de inteligencia sino por la ausencia o precariedad, como pasaba en el caso del dibujo, de las capacidades mecánicas y de control 'finas' para ejecutar alguna de esas tareas 'manualmente'.

Por otro lado, desde un punto de vista práctico, salvo que estemos pensando en experimentación o en demostración, muchos escenarios no tienen demasiado sentido práctico. 

¿Para qué queremos que un robot, con cierta torpeza, dibuje 'a mano' una figura cuando un ordenador normal es capaz de hacerlo muy rápido, con mucha precisión y, si queremos, imprimirlo incluso con calidad fotográfica? 

¿Para qué querríamos que un robot tocase al piano una melodía cuando un ordenador puede reproducirla en alta fidelidad e, incluso, el propio robot, podría simplemente, si le dotamos de altavoces de alta calidad, emitirlo sin necesidad de teclear en un piano? 

¿Para qué un robot que teclee código fuente en un ordenador, cuando cualquier computador dotado de IA generativa puede hacerlo directamente y de forma mucho más rápida y menos sujeta a error?  

Quizá tendría algo más de sentido, en el caso de robots sociales utilizados como una suerte de 'azafatas' en eventos, complementarlos con las capacidades dialógicas y, sobre todo, de interacción en diferentes idiomas, que aporta la inteligencia artificial generativa basada en grandes modelos de lenguaje.

En fin, como ocurre con cualquier elemento tecnológico, una vez conseguida la viabilidad técnica, y no hay duda de la viabilidad de unir robots con inteligencia artificial generativa, identificar los casos de uso que tengan sentido, para los que haya demanda y alrededor de los cuales se pueda hacer una proposición de valor y montar un modelo de negocio viable.


Conclusión


La integración de la robótica, y la robótica humanoide, es técnicamente posible y, además, relativamente sencilla y nos abre la puerta a escenarios y casos de uso alucinantes, futuristas.

Ahora sólo necesitamos sentido común para implementar y llevar a la práctica los que realmente tengan sentido.


lunes, 18 de septiembre de 2023

Hipérbole y realidad de la Inteligencia Artificial Generativa

Que nos hallamos ante una inflación de publicidad, comentarios, artículos y opiniones sobre la inteligencia artificial en general, y la inteligencia artificial generativa en particular, especialmente en lo que a ChatGPT se refiere, es casi una obviedad, creo que para casi cualquier tipo de público pero, desde luego, para todo aquel que, de una forma u otra, bajo una perspectiva u otra, tenga algo que ver con la tecnología.

Pero, ¿Se trata todo de una nueva burbuja tecnológica? ¿Es todo una exageración? ¿Publicidad interesada? ¿Fantasía? ¿Realidad?


El hype cycle de Gartner sobre Inteligencia Artificial


Este verano, Gartner, la famosa consultora tecnológica autora de informes tan famosos como los cuadrantes mágicos o los 'hype cycle', publicaba su 'Gartner Hype-cycle for artificial intelligence 2023', cuya representación visual es la que se recoge  en la figura:



Según este informe, dedicado en exclusiva a la inteligencia artificial, la inteligencia artificial generativa está justo en el denominado 'peak of inflated expectations' (pico de la expectativas infladas). Esto querría decir que, justo a partir de ahora, comenzarían a desinflarse esas expectativas (y la inversión) en esta tecnología, comenzaría a hablarse de fracasos y comenzarían a desaparecer algunas de las startups creadas alrededor de estas tecnologías. Pasado un tiempo alcanzaríamos el denominado valle de la desilusión y, en un plazo que este informe sitúa en 5 años, alcanzaríamos la plataforma de productividad con modelos de negocio, ajustados, maduros y rentables.

Más o menos coincidiendo con este informe también han surgido algunos artículos en que hablan de una eventual quiebra de OpenAI, la creadora de los modelos GPT y del archi-famoso ChatGPT. Y nos dicen que esa quiebra podría ser ya en 2024.

¿Significa esto que la Inteligencia Artificial Generativa es realmente una burbuja? ¿Significa que pasará, y pasará pronto? ¿Que desaparecerá o que se diluirá? ¿Que no tendrá un impacto importante en la economía o en la sociedad? 

Sinceramente, no lo creo. 

Veamos.


Las expectativas y la hipérbole


Que estamos en un momento de 'hype' y ruido mediático sobre a inteligencia artificial generativa, en especial ChatGPT, creo que es evidente. De hecho ya en marzo, y en este mismo blog, hablaba yo de ChatGPT como un 'panal de rica miel', artículo en el que, por cierto, mencionaba el hype cycle de Gartner y el pico de las expectativas infladas.

Que en ese ruido hay mucho 'postureo', mucha superficialidad y en ocasiones, en efecto, mucha fantasía y muchas expectativas infladas, creo que también es casi evidente.

Que muchas startups creadas alrededor de esta tecnología quebrarán y desaparecerán? Muy probablemente.

¿Que la adopción real y masiva por las empresas y administraciones llevará un tiempo, puede que incluso bastante tiempo? Seguramente.

O sea que sí, hay 'hype' y expectativas infladas y este mercado tiene que madurar. 

En eso tiendo a estar de acuerdo, al menos cualitativamente, con lo que el hype-cycle parece querernos transmitir.

Pero si se interpreta ese informe como que la inteligencia artificial generativa no es más que una burbuja, un 'bluf', algo que desaparecerá de nuestras vidas em bree, ahí no estoy de acuerdo.


La realidad


No estoy de acuerdo porque hay que decir que la inteligencia artificial generativa ya está aquí. No son meras expectativas, no son meras proyecciones a futuro. Está aquí y la podemos utilizar.

Las herramientas actuales, ChatGPT y muchísimas más, aportan valor real, eficiencia real, ahora mismo, ya.

Estoy seguro de que la inteligencia artificial generativa todavía nos tiene que sorprender, y mucho, con nuevas capacidades, nuevas aplicaciones y nuevos casos de uso, y que lo hará en breve, en semanas o meses, porque está en plena evolución, casi diría en plena ebullición. Pero incluso si la tecnología no diese más de sí, si no llegase más allá de lo que vemos ahora mismo, creo su que aportación de valor es real y muy alta. Así que mucho me extraña, mucho me cuesta creer, que no se puedan construir a su alrededor modelos de negocio viables.

En ese sentido, no creo que tenga nada de burbuja.

¿Que puede quebrar OpenAI? 

En eso, ni quito ni pongo rey, aunque me sorprendería un poco, dada su relevancia y el respaldo de Microsoft. Pero incluso si OpenAI quebrase, hay muchos otras empresas con Grandes Modelos de Lenguaje (LLM, 'Large Language Models') similares a GPT (y entre ellos los grandes como Google o Meta) y muchas empresas alrededor de otras formas de inteligencia artificial generativa. Es decir, una eventual, y creo que poco probable, caída de OpenAI, no supondría la desaparición de esta tecnología en absoluto.


Conclusión


El Hype-Cycle de Gartner nos sugiere varias cosas en las que estoy de acuerdo, o al menos que intuyo ciertas, como que estamos en un momento de exceso de comunicación y de mito, que se trata de un mercado que aún tiene que madurar y que eso supondrá quiebra y desaparición de startups,  implantaciones fallidas, puede que alguna desinversión y si, bajada del ruido mediático e incluso aumento de la publicidad negativa. Es una dinámica que sucede con cierta frecuencia y que por eso Gartner ha modelado con su hype-cycle.

Pero lo que no creo es que la inteligencia artificial generativa se trate de una burbuja que vaya a pasar sin dejar huella. Todo lo contrario. Creo que es una de las tecnologías más transformadoras surgidas en bastante tiempo y que va a tener un impacto real que empieza desde ya y que se prolongará, supongo durante unos cuantos años...aunque cuando ya sea algo común, y como ha pasado en otras tecnologías transformadoras, entonces ya se haya apagado el ruido mediático y lo consideremos como algo normal, a lo mejor sin apreciar todo lo que nos ha hecho cambiar, todo lo que nos ha transformado.


viernes, 15 de septiembre de 2023

Conociendo el pensamiento crítico con Jonathan Haber

'Critical Thinking' ofrece, como todos los libros de la colección 'The MIT Press Essential Knowledge series' a que pertenece, un tratamiento introductorio, aunque no superficial, de un tema, en este caso, evidentemente, el pensamiento crítico, con cierto énfasis en este caso en su uso, impacto y necesidad en la educación.

Un libro que he leido buscando, precisamente, esa introducción razonable a un tema del que tanto se habla u por el que tanto se aboga como es el pensamiento crítico, sin que, creo, muchas veces se sepa de qué se está hablando exactamente, considerándolo quizá más una especie de personalidad o filosofía de vida que una verdadera disciplina.

El libro, de una extensión mediana tirando a corta, se estructura en torno a, únicamente, cuatro capítulos, a saber:
  • 'The Genealogy of Critical Thinking:' Una revisión con perspectiva histórica de las diferentes fuentes de que bebe el pensamiento crítico junto con algunos hitos importantes. Comienza, como casi no podía ser de otra forma, por la filosofía para luego saltar al renacimiento y la ilustración junto con la revolución científica. A continuación comenta la aportación de psicología y de la filosofía pragmática, para luego concentrarse un momento en la figura de John Dewey, filósofo pragmático contribuyente a las teorías de la psicología humana y, sobre todo, con foco en la educación. Luego revisa una serie de avances en la concepción de la educación, el desarrollo humano y el comportamiento, y finaliza el capítulo reseñando como un hito muy relevante cuando en 1983 la Universidad de California exigió a todos sus estudiantws completar un curso de pensamiento crítico.

  • 'Components of Critical Thinking:' Probablemente el capítulo más descriptivo e informativo de los cuatro, y que comenta diversas herramientas usadas en pensamiento crítico. Así, nos habla del pensamiento estructurado que incluye elementos de la lógica más tradicional y que también incluye temas tan relevantes como las falacias. En otro apartado habla de las habilidades lingüísticas incluyendo temas como las traducciones, la comunicación persuasiva o la argumentación. Nos habla de conocimiento, de creatividad, y de las llamadas disposiciones o características de comportamiento de un pensador crítico.

  • 'Defining, teaching, and Assesing Critical Thinking:' Aunque parezca ya fuera de lugar, comienza el capítulo buscando definiciones de lo que es el pensamiento crítico. Luego sitúa el pensamiento crítico en un contexto mayor donde se solapa con otros tres temas, la creatividad, la colaboración y la comunicación. A continuación se pregunta si el pensamiento crítico puede ser enseñado (algo que lo que como cabe esperar, da una respuesta afirmativa, y nos indica por dónde empezar, dónde concentrar esa enseñanza del pensamiento crítico, cómo enseñarlo y cómo practicarlo. Y, finalmente, se pregunta si se puede evaluar el pensamiento crítico para lo cual describe algunos tests existentes. Finaliza con un caso concreto de estudio.

  • 'Where Do We Go From Here:' Una serie de reflexiones finales que remata con una serie de sugerencias concretas, prioridades en realidad, tanto para docentes como para las familias y una petición final de crear una cultura del pensamiento crítico.
'Critical thinking' es un libro correcto e informativo, que creo que cumple bien su función, sin más pretensiones. Una forma, que sólo puede ser un primer paso, de acercarse al conocimiento del pensamiento crítico, especialmente en lo que se refiere al mundo de la educación que probablemente, caso de tener interés, precise de pasos y lecturas adicionales. 

Jonathan Haber


(Fuente: Traducción y ligera elaboración propio de la biografía en su página oficial)

Jonathan Haber
Jonathan Haber ha sido fundador, CEO de una compañía y ejecutivo en organizaciones sin ánimo de lucro trabajando en la intersección entre la educación, el empleo y la asesoría.

Es autor de varios libros, incluido el best-seller 'Critical Thinking' integrante de la serie 'MIT Press Essential Knowledge'. Su proyecto de investigación sobre cursos MOOCs fue destacado en 'The New york Times', el 'Chronicle of Higher Education' y otras publicaciones.

Su trabajo en educación incluye la certificación 'Internet and Computing Core Certification' usada durante más de quince años para enseñar y certificar la alfabetización digital de estudiantes en todo el mundo. Como empleado número tres de la 'Woodrow Wilson Graduate School of Teaching and Learning' ayudó a conseguir un innovador programa de grado lanzado y acreditado en sólo dos años.

Más recientemente, ha estado trabajando como consultor para organizaciones con y sin ánimo de lucro en áreas como los estándares académicos, desarrollo de cursos innovadores online y la preparación de profesores para respuesta al COVID.

Jonathan cree que la clave para la equidad educativa es ayudar a cada estudiante al desarrollo de habilidades de pensamiento crítico que pueden ser dominadas por aprendices de cualquier condición y procedencia. Sus libros, currícula, así como las prácticas de aprendizaje apoyadas en pensamiento crítico que ha desarrollado para educadores están todas enfocadas a una única misión: hacer de cada estudiante un pensador crítico, preparado para progresar en el siglo veintiuno.

Puedes conocer más del autor visitando su página oficial, su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @degreeoffree.

  

Ficha técnica:


EDITORIAL: MIT Press
AÑO: 2020 
ISBN: 978-0262538282
PAGINAS: 232

miércoles, 13 de septiembre de 2023

Los robots y la definición de humanidad

¿Tenemos claro en qué consiste eso de ser 'humanos'? ¿Qué es lo que define a una persona? Puede que no, que no lo tengamos tan claro como podríamos pensar, y que los robots y otras tecnologías nos fuercen a reflexionar sobre ello.


El interés de la robótica


El estudio de la robótica es apasionante. Desde un punto de vista puramente ingenieril, es una disciplina que aúna conocimientos diversos, procedentes de la mecánica, de los materiales, de la automatización y el control, de la sensórica, de las comunicaciones y la informática. Sólo como una forma de ingeniería es completa, abarcadora y retadora.

Si además, y pensando especialmente en robots sociales, y más aún en robot humanoides, entramos en el campo de la relación robots-personas (HRI, 'Human-Robot Interaction'), no sólo expandimos la sensórica y algoritmia necesaria, es que además, empezamos a superponer a la ingeniería, la pura robótica, importantes elementos de psicología, e incluso antropología y sociología. Y eso convierte a la robótica en un área de conocimiento, aún más transversal y aún más apasionante.


Roboética y el concepto de humanidad


Y si ahora damos quizá el último paso, hablamos de roboética, y nos planteamos elementos éticos en robótica, elementos que incluyen, pero extienden y particularizan, los propios de la inteligencia artificial, nos adentramos ya en el campo de la filosofía y, como derivada práctica, en el terreno legal.

Y algunos de los grandes desafíos de la roboética, como la asignación o no de agencia moral y de paciencia moral a los robots, el debate sobre la 'sintiencia' y sobre la consciencia, tanto si las máquinas son capaces de esa sintiencia o esa consciencia, como de si eso les otorgaría consideración moral especial o derechos especiales o, finalmente, el debate sobre si los robots pueden ser objetos de derecho o si tiene sentido hablar de una personalidad electrónica,  nos desafían a plantearnos cuestiones que van mucho más allá de lo técnico e incluso de lo legal.

Nos hacen formularnos preguntas profundas, sobre lo que significa ser conscientes, lo que significa ser sintientes, sobre qué es lo que otorga o no consideración moral a un ser, sobre lo que significa, en último termino, ser persona, ser humano.


La necesidad de precisión en el concepto de humanidad.


Preguntas que hace unas décadas no teníamos realmente por qué formularnos, o no al menos con mucha precisión, porque no existía ningún ser (quizá con la excepción de los animales, o en épocas lejanas y en ciertas culturas, colectivos humanos como los esclavos e incluso las mujeres) que nos desafiara a pensar qué es lo que nos hace diferencialmente humanos, qué es lo que nos otorga dignidad y consideración moral, qué es lo que nos hace tener derechos.

Pero ahora, aparte de que por otras vías hemos comenzado a pensar en derechos de animales y plantas, sí que existen esos entes, esos seres, algoritmos y robots, que ya sea en realidad o en posibilidad, desafían el concepto de lo que es ser humano, lo que es sentir, lo que es ser conscientes, o a lo que debemos otorgar consideración moral.

Y otras tecnologías, la edición genética o el BCI ('Brain Computer Interface') que abren las puertas a la modificación esencial del ser humano, a su mejoramiento, a su potenciamiento por  medios artificiales, también nos atrae la cuestión de la esencia de la humanidad.

Y ahora ya no podemos permitirnos el dar muchas cosas por supuestas ni el ser imprecisos. 

Porque el desafío es real y porque tenemos que entenderlo, debatirlo, ponernos de acuerdo e, incluso, redactar leyes y normativas. Y en la ley y en las normativas no cabe, casi diría mejor que no debería caber. la ambigüedad. Y si esas leyes se traducen en requisitos técnicos, esos sí que no pueden ser ambiguos en absoluto.

Leyendo el reciente libro de Eve Poole titulado 'Robot souls' me encuentro bastante al principio una cita en este mismo sentido.


Because we have not often had to define our humanity, we are not precise in doing so. And in a world where the regulation and control of Artificial Intelligence is of increasing concern, there is an urgent need to be able to be more precise


En efecto, hasta no hace tanto no habíamos sentido la necesidad de ser precisos, pero ahora sí que existe esa necesidad.

Aunque, me parece, no nos va a ser nada fácil conseguir ese consenso y esa precisión. Arrastramos mucho conceptoa ambiguo, muchas diferencias culturales y mucho pensamiento quizá no del todo concreto ni convergente como para alcanzar fácilmente esa precisión.

Pero hay que intentarlo.


Conclusiones


Las nuevas tecnologías, muy especialmente la inteligencia artificial, la robótica, la edición genética y el BCI, desafían nuestro concepto de lo que es humanidad y, por tanto, dónde debemos poner las fronteras de consideraciones morales, dignidades y derechos.

Es importante que consigamos criterios válidos y accionables si queremos tener un éxito ético y regulatorio en el uso de estas tecnologías y, para ello, debemos empezar a precisar qué entendemos exactamente por ser humano.


lunes, 11 de septiembre de 2023

La manipulación de estados de ánimo sociales y el pensamiento crítico

A estas alturas del partido, ya somos muy conscientes de la importancia de los datos en la vida digitalizada actual. 


Los datos


Somo conscientes de que existen muchísimos datos disponibles, entre ellos nuestros propios datos, somos conscientes de que existen potentes tecnologías (básicamente las agrupadas bajo el término Big Data) para procesar esos datos, y somos conscientes de la existencia de sofisticados algoritmos (típicamente procedentes del campo del machine learning) para extraer todo tipo de informaciones explícitas y sobre todo implícitas en esos datos y para obtener conclusiones y hacer predicciones..

Pero no sólo se pueden utilizar datos para conocer y analizar la realidad. También con base en los datos y con las plataformas digitales, se puede influir sobre personas, sobre colectivos y sobre la sociedad en general. 


 Influencia y manipulación basada en datos


No digo nada original a estas alturas, si hago notar, por ejemplo, el uso de información de clientes, obtenidos quizá mediante interacción con webs de comercio electrónico, para conocer sus gustos, sus preferencias, y orientar campañas tanto de marketing general como propuestas específicas y personalizas de compra.

No digo nada novedoso tampoco si hago notar como mediante condiciones de uso leoninas (y que casi nadie lee) de muchísimos canales digitales o mediante un uso no ético (y puede que tampoco legal) de la información de nuestros móviles, las diferentes empresas y canales digitales saben mucho de cada uno de nosotros. 

Tampoco digo nada original si hago constar que al igual que existe un marketing comercial, existe igualmente un marketing ideológico y un marketing político que intenta vender ideas, candidatos y partidos.

El caso es que, con base en los datos obtenidos de personas (ya sean clientes o ciudadanos en general) podemos no sólo conocer a esas personas, sino también influir en sus elecciones.

Y esto es un tema delicado. No es que no se haya hecho 'de toda la vida'. Por supuesto que antes de la explosión digital y del Big Data, las empresas intentaban conocer y segmentar a sus clientes, y los políticos conocer a su electorado potencial, mejorar la venta de sus productos o sus candidaturas. Cambia ahora, y quizá eso es lo que nos preocupa, la escala, la potencia, la eficacia... y en parte también cómo se obtiene la información sobre cada uno de nosotros, no siempre excesivamente respetuosa con la privacidad.


Un experimento sobre estados de animo


En realidad, todo lo dicho más arriba es conocido y he dudado si valía la pena escribir este post. Pero lo hago espoleado por un aspecto algo puntual pero llamativo. Y es por la constatación de lo relativamente sencillo (y añado que de lo potencialmente peligroso) que es influir ya no solo en la compra o incluso el voto, sino también en el estado de ánimo, y no de personas particulares sino de toda una sociedad.

Y me viene esa idea leyendo el librito 'Big data: Conceptos, tecnologías y aplicaciones' de David Ríos Insúa y David Gómez-Ullate Oteiza

En un pasaje del mismo, y antes de comentar el famoso escándalo de Cambridge Analytica mencionan un experimento realizado en 2022 un grupo de investigadores de Facebook (ahora Meta) y de la Cornell University. En el experimento, realizado sobre 700.000 individuos, el algoritmo que selecciona qué mensajes de amigos (o sugeridos) se muestran a los usuarios, se modificaba con un cierto filtro, de manera que a una parte de los usuarios les llegaban mensajes positivos mientras que otro le llegaban mensajes negativos. Cabe destacar que, en ambos casos, los mensajes eran absolutamente reales, de usuarios reales, amigos reales de los que los recibían, sin más manipulación que ese filtrado por positividad o negatividad.

Y el resultado fue que, aquellos usuarios que recibían mensajes negativos, emitían a su vez mensajes negativos, mientras que los que recibían mensajes positivos, tendían a emitir mensajes positivos. Es decir, de alguna forma, se había logrado influir en el estado de ánimo de las personas o al menos en el que manifestaban.

Piénsese ahora esto trasladado a estados de opinión en el ámbito político o ideológico.

Y lo que quizá asusta más, es que es muy sencillo de hacer. De hecho los autores escriben:


lo que resulta llamativo es que un ingeniero informático, modificando unas pocas líneas de código, era capaz de propagar estados de ánimo sobre una población entera.


Es para inquietarse un poco ¿no?


¿Y qué podemos hacer? El pensamiento crítico


¿Y qué se puede hacer ante esto?

Realmente, no soy del todo optimista. 

A pesar de la creciente preocupación por el uso ético de los datos, a pesar del foco, en concreto, en temas como la privacidad y la no manipulación, a pesar de la existencia en Europa del Reglamento de Protección de Datos y la próxima ley de la Inteligencia Artificial así como otras iniciativas parecidas, creo que el uso no siempre ético de los datos se va a producir y los intentos de influir en todo tipo de opiniones de la población, también.

Entiendo que hay que reforzar todo lo relativo a las salvaguardas legales pero no creo que podamos confiar al 100% en su eficacia práctica. así que, como ciudadanos individuales, creo que debemos ser conscientes de que nuestros  datos están expuestos y que los mensajes que recibimos, por todo tipo de medios, van a buscar la influencia de todo tipo: comercial, ideológica, política, etc.

Además, de intentar (sabiendo que nunca vamos a tener un éxito total) proteger nuestra privacidad e intimidad, debemos desarrollar ese famoso pensamiento crítico: ser conscientes de que los mensajes que recibimos pueden estar sesgados y manipulados, contrastar opiniones en medios diferentes, analizar, acceder a opiniones incluso de aquellos que somos conscientes de que no piensan como nosotros.

Pero esto se dice muy fácil y se consigue muy difícilmente. El problema es que el pensamiento crítico, aparte de a veces ambiguo, es una habilidad y una actitud. Existen técnicas específicas de pensamiento crítico pero creo que ante todo es una actitud. Y una actitud en cierto sentido elevada y cultural. Y, por tanto, difícil y lenta de adquiririr. Y muy difícil de generalizar para toda una sociedad.


Conclusiones


Aunque en el fondo ya lo sabemos, conviene insistir una y otra vez en el hecho de que hoy en día, nuestros datos están en mayor o menor media expuestos, y que son usados para conocernos (individualmente o como colectivos) y para, con base en ellos, intentar influir en nuestros comportamientos de compra, en nuestras opiniones, nuestra ideología y nuestro voto.

No es fácil responder a esto pero, de momento al menos, me quedo con la prudencia en la exposición voluntaria de nuestros datos y la búsqueda del contraste y la aplicación del pensamiento crítico.

 

viernes, 8 de septiembre de 2023

Los robots y sus capacidades con Elena García Armada

'Los robots y sus capacidades' es un libro de más bien corta extensión, que forma parte de la extensa colección 'Qué sabemos de?' creada por el CSIC. Un libro que leí atraído a un tiempo por el interés que tengo en el tema y, por otra, por las ganas de leer a esta reconocida ingeniera y roboticista.

El libro, como todos los de la colección, tiene un carácter claramente divulgativo, sin entrar en aspectos demasiado técnicos o profundos.

El contenido se estructura en siete capítulos, como sigue:
  • 'CAPÍTULO 1 ¿Qué es un robot?:' Un capítulo breve en que busca el origen del término 'robot', explora alguna definición e identifica los tipos principales.

  • 'CAPÍTULO 2 Biografía:' Hace un recorrido histórico por el surgimiento y evolución de la robótica, con un poquito más de detenimiento en los robots industriales pero hablando también de otras formas robóticas: robots personales, robots médicos, robots de rehabilitación, robots asistenciales y robots de logística.

  • 'CAPÍTULO 3 Anatomía:' Un capítulo algo más ingenieril en que, partiendo y manteniendo un paralelismo con la anatomía humana, nos explica aspectos de la estructura física de los robots, como las articulaciones, las proporciones, las piernas y manos robóticas o los denominados planos anatómicos.

  • 'CAPÍTULO 4 El sistema neuromuscular:' Un poco en la línea del capítulo anterior, mantiene el estilo ingenieril pero también el paralelismo con el cuerpo humano para hablar del sistema neuromuscular que en los robots se va a traducir en motores y también en un sistema de sensores tanto propioceptivos (perciben información del propio robot) como exteroceptivo (perciben información del exterior). Aborda también brevemente el sistema de control y se detiene a hacer unas consideraciones finales sobre la manipulación diestra, algo con lo que los robots aún se encuentran con ciertas dificultades.

  • 'CAPÍTULO 5 Más allá del cuerpo:' Un capítulo algo heterogéneo que toca varios temas que van más allá de la estructura física del robot. Así, habla de la comunicación incluyendo, por ejemplo, el reconocimiento de voz, la interacción social, o la comunicación directa de máquinas con el sistema nervioso mediante BCI ('Brain-Computer Interface'). También hace consideraciones sobre inteligencia y robots inteligentes, así como sobre materiales también denominados inteligentes, que permiten fusionar la función sensora con la actuadora en un esquema más parecido al humano. De ahí salta a la robótica blanda, con unos robots deformables y constituidos por materiales no rígidos. Finaliza con unas consideraciones filosófico-éticas sobre transhumanismo.

  • 'CAPÍTULO 6 Robots fascinantes:' De una forma interesante, aunque quizá más anecdótica, este capítulo hace una panorámica de los aspectos más avanzados o sugerentes de la robótica. Habla de los famosos robots de Boston Dynamics, nos explica el exoesqueleto pediátrico ATLAS del que la autora es la creadora, de los conocidísimos robots sociales Nao y Pepper, los robots de almacén de Amazon, el robot quirúrgico DaVinci, el robot doméstico de Toyota e, incluso, el coche autónomo de Waymo.

  • 'CAPÍTULO 7 Inquietudes y miedos frecuentes:' Un capítulo final, en que la autora contesta a seis preguntas y debates, habituales, especialmente en medios no especializados y que muestran preocupaciones o miedos respecto a los robots: si los robots tienen emociones o si pueden ser más inteligentes que los humanos, o si nos quitarán el trabajo, por ejemplo.
'Los robots y sus capacidades' es un muy buen libro de divulgación científico-técnica. A pesar de su relativa brevedad es bastante abarcador y el enfoque divulgativo no le impide ser riguroso y abordar con orden y, sobre todo, criterio, los temas relevantes.

Recomendado. 

Elena García Armada


Elena García Armada
Elena García Armada (Valladolid, 1971) es una ingeniera industrial española fundadora y presidenta de Marsi Bionics, empresa de base tecnológica nacida como spin-off del CSIC, que ha desarrollado el primer (y de momento único) exoesqueleto del mundo para niños con patologías neuromusculares y parálisis cerebral. Es investigadora científica del Consejo Superior de Investigaciones Científicas (CSIC).

Su interés por la ciencia y la investigación no es casualidad. Elena, que es doctora de Ingeniería Industrial por la Universidad Politécnica de Madrid con la tesis, 'Optimización de la estabilidad y la velocidad de robots caminantes', e​s hija de una doctora en Física y un catedrático de Electromagnetismo y creador de la Escuela de Ingeniería de Telecomunicaciones en Santander. No obstante, es una gran apasionada del arte, incluso antes de decidirse por la rama de la ingeniería industrial, su inclinación hacia las Bellas Artes parecía que se iba a interponer en su camino.

En el año 2000, presenta uno de sus primeros proyectos: SILO 45, u​n robot de 30 kilogramos que permite una mayor autonomía por parte del robot, prescindiendo así de supervisión humana. Al adaptar las patas a posibles perturbaciones o alteraciones del terreno, logra un aumento de su equilibrio, fundamental para tareas de arrastre o transporte de cargas. SILO 4 se planteó para su uso en labores de reconocimiento y rescate en catástrofes y para labores de desminado.

En 2007 se incorpora a las escalas científicas del Consejo Superior de Investigaciones Científicas (CSIC) tras formarse en centros de prestigio como el Massachusetts Institute of Technology (MIT). Desde su incorporación, Elena G. Armada ha dirigido 22 proyectos de innovación tecnológica y transferencia de tecnología, entre los que destacan los proyectos para la transferencia de la tecnología al mercado y la generación de talento emprendedor. Los resultados de su investigación se citan en el Springer Handbook of Robotics (ed. 2008) y en diversas revistas científicas internacionales.

En 2009 conoce a Daniela, una niña de 9 años que queda tetrapléjica tras haber sufrido un grave accidente de tráfico. Su familia contacta con el CSIC para plantear la posibilidad de aplicar la robótica para ayudar a su hija y la Dra. García Armada se pone manos a la obra. Así, en 2012 presenta el primer -y por el momento único- exoesqueleto pediátrico. Esta invención logra cambiar el paradigma de la rehabilitación pediátrica, ya que, no sólo puede adaptarse al crecimiento del niño, sino también adaptarse a su condición muscular. Sus trabajos han dado lugar a 8 patentes, tres licenciadas y extendidas internacionalmente a EE. UU. y Europa y a más de cien publicaciones científicas en revistas y congresos.

Elena es vocal del Consejo Rector de la Agencia Estatal de Investigación (AEI), miembro del grupo de Trabajo de Innovación y Transferencia del Conocimiento del Ministerio de Ciencia e Innovación, miembro del Industrial Activities Board of the IEEE Robotics and Automation Society, y miembro del jurado de los Premios Princesa de Asturias de Investigación Científica y Técnica y de los Premios Nacionales de Investigación en su modalidad Juan de la Cierva de Transferencia Tecnológica.

Además de la investigación, García Armada también realiza una intensa labor divulgativa con su participación en charlas, conferencias e iniciativas para fomentar vocaciones STEM en las futuras generaciones. Su alto grado de compromiso con las futuras generaciones y su implicación por fomentar la presencia de mujeres en el ámbito de la ciencia y la investigación, le han hecho recibir diversos reconocimientos por parte de la comunidad educativa del país, como en 2021, cuando en Jerez de la Frontera (Cádiz) le fue impuesto su nombre a un instituto de Educación Secundaria o en 2022 o cuando el Ayuntamiento de Rueda (Valladolid) le propuso incluir su nombre dentro del proyecto comunitario del Paseo de la Mujer.

La Dra. García Armada ha sido reconocida como una de las 30 mujeres más influyentes del mundo en el ámbito de la robótica por Robohub, plataforma norteamericana dedicada a la divulgación científica. Además, Elena G. Armada es Comisaria en la preparación de la exposición Robots e Inteligencia Artificial del Museo Nacional de Ciencia y Tecnología.

Puedes conocer más de la autora visitando su perfil en LinkedIn.

    

miércoles, 6 de septiembre de 2023

Materiales inteligentes y la travesía del valle inquietante

Estamos acostumbrados a pensar en los robots como unos entes físicos construidos fundamentalmente con plástico y metal, y en realidad eso es lo más común. Pero esa situación podría modificarse, al menos en algunas situaciones, por la llegada de los así llamados materiales inteligentes.


Recordatorio: sensores, actuadores y el modelo de agente inteligente


Muy recientemente recordábamos cómo, a la hora de definir o explicar un robot, se suele adoptar el modelo del agente inteligente, un ente (que muchos consideran que debe tener un 'cuerpo físico') que percibe información de su entorno mediante sensores, actúa sobre ese entorno mediante actuadores y que, además, presenta coherencia entre las acciones que aplica a ese entorno con base a lo que percibe de él y a sus propios objetivos.

Cabe destacar que, así explicado, ese modelo de agente inteligente, aunque utilizado con frecuencia en robótica o inteligencia artificial, es perfectamente aplicable al caso de los seres vivos.

En cualquier caso, en ese modelo, y si se piensa en entes físicos, se observan las dos funciones, sensor y actuador, y ese 'cuerpo' constituido, por tanto, por unos materiales que le confieren forma y una suerte de rigidez. 

Y ese modelo, aplicado en los robots actuales, suele conducir a una separación bastante clara entre lo que son los sensores y lo que son los actuadores.

Pero esa separación, y las capacidades de sensores y actuadores, es lo que podría cambiar, por mor de la aparición de los materiales inteligentes.


Materiales inteligentes


¿Qué son los materiales inteligentes?

En su libro 'Los robots y sus capacidades', Elena García Armada nos lo explica de la siguiente forma:


Un material inteligente es un material que muestra un cambio observable en sus propiedades físicas (rigidez, viscosidad, forma, color, etc) cuando es estimulado desde otra, pero que a su vez provoca ese determinado estímulo si se modifican sus propiedades físicas.


Aparte de otras propiedades, sin duda muy interesantes, estos materiales inteligentes presentan la posibilidad de romper la dicotomía sensor-actuador porque, como inmediatamente a continuación de la frase anterior, nos muestra García Armada 


De tal manera que puede funcionar simultáneamente como sensor y actuador si el efecto es controlable.


Se rompe, pues, la dualidad sensor-actuador, que puede unificarse en un mismo elemento, de manera más próxima a lo que hacen los seres vivos.

No voy a entrar mucho en detalles, pero en esa misma obra, la autora nos menciona brevemente algunos de esos materiales inteligentes. 

Así, por ejemplo, nos habla de los polímeros electroactivos uno de los materiales que se dice que tienen memoria de forma pues se deforman ante un estímulo externo y unos materiales que en esos cambios de tamaño y forma que experimentan ante estímulos externos, se comportan de forma parecida a los músculos humanos. Y cuando funcionan como actuadores son capaces de sufrir deformaciones notables mientras soportan esfuerzos moderados.

Nos habla también de los fluidos electroreológicos y magnetoreológicos que modifican algunas de las llamadas propiedades reológicas (relación entre esfuerzo y deformación de medios continuos) como la viscosidad, ante un estímulo eléctrico o magnético.

Y menciona tambén los materiales piezoeléctricos que convierten energía mecánica en eléctrica (por ejemplo, generan electricidad cuando son presionados) y viceversa, probablemente uno de los tipos de materiales inteligentes más maduros.

O los materiales cromoactivos que pueden cambiar de color ante estímulos externos.


La robótica blanda


En parte con base en este tipo de materiales, surge lo que se denomina la robótica blanda ('soft robotics'), en que los robots dejan de ser esos entes rígidos que mencionábamos más arriba para ser capaces de cambiar de forma y comportamiento y permitir la deformación cuando realizan, por ejemplo, manipulación.

La robótica blanda es un campo de investigación muy interesante pero no profundizaré más ahora en él, porque creo que se merece su propio análisis y publicaciones en modo de posts, que espero acometer en algún momento no demasiado lejano.


Recorriendo el valle inquietante


Pero vuelvo ahora a los materiales inteligentes y pienso sobre todo en esa especie de músculos artificiales que mencionaba a propósito de los polímeros electroactivos. Y uno la idea de esos músculos artificiales, al desarrollo de la piel artificial, y pienso además en la aplicación de ambas cosas en el caso de robots humanoides.

Si construimos (como de hecho se hace ya) robots que dejan de ser metálicos y de plástico, para estar constituidos por materiales blandos y recubiertos de piel artificial. y si nos esforzamos, como se hace ya en algunos casos (como los famosos 'geminoid') en tener una alta fidelidad a la morfología de una cara y un cuerpo humanos, estaríamos recorriendo el famoso valle inquietante que propusiera Masahiro Mori, y que nos habla del rechazo que nos producen robots que se parecen a un humano, un rechazo que no se produce cuando son claramente diferentes o, en el otro extremo, cuando son enormemente parecidos a un humano, diríamos que plenamente iguales.

Si la fidelidad es buena, pero no excelente, podríamos estar, pues, de lleno en lo más profundo de ese valle inquietante y ante unas criaturas, unos robots, que nos impresionasen pero al tiempo repeliesen. Pero si avanzamos algo más en materiales y en fabricación, puede que se superase ese valle, que se cruzase, que llegásemos al otro lado, donde ya desaparece la inquietud y se consiguiesen robots, muy, muy parecidos externamente a un ser humano.

Añadamos capacidades conversacionales procedentes la inteligencia artificial generativa, precedida de reconocimiento de voz, más una buena visión artificial y avanzados algoritmos de reconocimiento de emociones... y tenemos servidos unos robots 'muy humanos'.

Apasionante y un poquito estremecedor ¿no?


Conclusiones 


Los materiales inteligentes son un campo muy interesante de investigación, y también ya de aplicación, que abre unas extraordinarias posibilidades a la robótica. 

Si trasladamos ahora ese uso de materiales inteligentes al caso de robots humanoides, podemos conseguir no sólo mayores prestaciones, sino también un acercamiento mayor a un aspecto humano y, por tanto, nos pueden introducir (y puede que también superar) en el famoso valle inquietante.

Lo que no estoy seguro es si salvar ese valle inquietante de verdad nos elimina la inquietud.