miércoles, 14 de mayo de 2025

La inteligencia artificial transversal (III): razonamiento y control

El aumento de transversalidad en la inteligencia artificial  no tiene lugar únicamente por una especie de fusión de diferentes enfoques de la misma como he revisado en los dos posts anteriores en que, por una parte, hablaba de la progresiva indiferenciación entre la inteligencia artificial generativa y la discriminativa (primer post de esta serie) y, por otro, de la unificación de modalidades en los mismos modelos o aplicaciones (objeto del segundo post).

Además, esa mayor transversalidad se produce por introducción de algunos elementos nuevos. Y uno de ellos, seguramente el principal, es el objetivo de este post: el control y el razonamiento.
 

Control


Aunque en este post uno el control y el razonamiento, quiero dedicar unas líneas a verlos por separado porque, aunque conceptualmente puedan unificarse, en la práctica se tienden a usar en contextos diferentes, aludiendo a funciones algo diferentes y con implementaciones también diferentes.

En ambos casos se refieren, de alguna forma, a la 'inteligencia' que gobierna un agente (por ejemplo, un robot, ya sea hardware o software), a aquella lógica que hace que ese agente, de alguna forma, tome decisiones lógicas conforme al estado del mundo, su propio estado y sus objetivos.

En general, el término control tiende a aplicarse a soluciones algo más modestas y, con frecuencia del mundo físico y de la automatización industrial.

Así, hablamos de control cuando como los mecanismos que mantienen una cierta variable (por ejemplo, una velocidad) en el punto deseado, mediante la utilización de un bucle de realimentación y un controlador de tipo PID.

Aunque no se suele utilizar la palabra control en ese ámbito, podríamos considerar también como una forma de control poco sofisticada, aunque muy eficaz, la estrategia de comportamientos reactivos ('behaviors'), es decir el establecimiento de pares estímulo-respuesta que se utilizan en algunos robots y que revisamos en el post titulado 'Comportamientos reactivos y los conceptos de inteligencia e inteligencia artificial'.

Por decirlo de alguna forma, lo que encuadro dentro del término 'control' (porque en la literatura con frecuencia se denomina así), son mecanismos de gestión de un agente que mantienen la coherencia de su comportamiento y la consecución de sus objetivos mediante mecanismos simples, estáticos y reglados.

Razonamiento


Aunque lo que denomino 'razonamiento' no deja de ser una forma de control, se trata de un control mucho más sofisticado, mucho más flexible y mucho más próximo al funcionamiento cognitivo humano.

En este caso, no tenemos un control o comportamiento estático y reglado sino que el agente traza un plan de actuación para conseguir un objetivo (ese plan no le viene dado como, de alguna forma, sucede en los mecanismos que he agrupado en la sección de 'control'). Y no sólo eso, es que además el agente es capaz de reaccionar y cambiar dinámicamente ese plan en función de los estímulos que recibe, de cómo cambia el estado de su entorno o cómo cambia su propio estado. 

Algunas formas de razonamiento se vienen aplicando en la inteligencia artificial desde hace muchos años, incluso en la inteligencia artificial simbólica. Razonamiento serían los motores de inferencia de los sistemas expertos, y razonamiento serían también los famosos algoritmos de búsqueda en un espacio de estados.

Pero hay importantes novedades en este campo del razonamiento.

Modelos razonadores


Y esas novedades vienen ¡cómo no! del campo de la inteligencia artificial generativa (una inteligencia artificial a la que probablemente, y como argumentaba en el primer artículo de esta serie, seguramente haya que ir pensando en quitarle el apellido de 'generativa').

Esa novedad son los modelos razonadores que, por ejemplo, OpenAI ha incorporado en su serie 'o' (como el recientemente lanzado o3), aunque ciertas capacidades de razonamiento venían en modelos anteriores.

En efecto, los modelos razonadores ya son capaces de trazar un plan y decidir unas acciones para conseguir el objetivo que normalmente le viene marcado por un 'prompt'. Y no sólo son capaces de trazar ese plan sino que, en función de los resultados que obtienen en cada paso de ese plan, pueden dinámicamente cambiarlo e ir decidiendo nuevos pasos. Los resultados, por cierto, a veces y curiosamente, se los da el modelo a sí mismo, pero en otros son el resultado de invocar a herramientas que les ponen en contacto con el exterior, por ejemplo, mediante una búsqueda en la web, mediante 'screen scraping', mediante creación y ejecución de programas python, mediante invocación a APIs, etc.


Los agentes (de la 'Agentic AI')


Y si mezclamos la capacidad de razonamiento (dinámico y autónomo) con la capacidad de interacción con el exterior mediante lo que habitualmente se denomina herramientas ('tools'), ya tenemos los ingredientes para construir los famosos agentes de la 'Agentic AI'.

Nota terminológica: recalco el apellido 'de la Agentic AI' porque el concepto de agente existe desde hace décadas (e incluso siglos) y, no sólo se ha utilizado fuera del ámbito tecnológico, sino que en la propia inteligencia artificial y la robótica, se viene empleando desde hace décadas y, de hecho, es definitorio del concepto de robot e, incluso, autores tan reconocidos como Russel y Norvig, en su famoso libro de texto 'Artificial intelligence. A modern approach', centran la propia definición de inteligencia artificial en la idea de agentes.

Lo novedoso de los agentes que ahora se han puesto de moda dentro del marco de la 'agentic AI', no es su concepto, que es el mismo de siempre, sino que ahora se está empezando a conseguir, y esa es la principal promesa, que puedan ellos mismos, los agentes, decidir el plan a ejecutar sólo con recibir un objetivo en forma de 'prompt' y que puedan decidir, así mismo, qué herramienta necesitan utilizar en cada momento y realizar su invocación.

En el fondo, la realización de los nuevos y poderosos agentes software, orbita en torno a estos modelos razonadores a que aludía más arriba. 


Conclusiones


La inteligencia artificial se hace más transversal, no sólo por la fusión de enfoques hasta ahora diferenciados, como discriminación versus generación, o el tratamiento de modalidades, sino también por la inclusión de nuevas capacidades entre las que destaca la posibilidad de razonamiento que nos conduce, de cabeza, a los así llamados agentes de la 'Agentic AI'..


Artículos de este blog relacionados

martes, 13 de mayo de 2025

La inteligencia artificial transversal (II): de la multimodalidad a la omnimodalidad

Este es el segundo post de la pequeña serie que quiero dedicar hacia la, al menos en mi opinión, evolución de la inteligencia artificial hacia un enfoque mucho más transversal aunque, como expliqué en el post anterior, prefiero no darle el nombre de 'general' y quedarme en ese 'transversal' que he mencionado.

En ese post anterior me centré en la difuminación de la frontera entre inteligencia artificial generativa y discriminativa. En este voy a hablar en cierto sentido de la multimodalidad pero, por razones que explicaré luego, prefiero en realidad llamarla omnimodalidad.


Modalidades


¿Qué es eso de las modalidades? Bueno, la definición no es sencilla del todo pero el concepto sí: los diferentes tipos de medios que manejamos. Con ejemplos se entiende aún mejor: una modalidad, la más básica en el caso de la inteligencia artificial y de los modelos de lenguaje, es el texto, el lenguaje natural. Otra modalidad es la imagen, otra el vídeo y otra el sonido, por ejemplo la música o la propia voz. 

En muchas modalidades podríamos entrar en disquisiciones sobre si, por ejemplo, el sonido es una modalidad en sí misma o si los diferentes usos del sonido (música, voz, avisos sonoros, etc) son modalidades diferentes. En el caso de la imagen, podríamos quizá querer distinguir, por ejemplo, entre una imagen artística y un diagrama (por ejemplo un histograma).

Incluso, en el caso del texto, podríamos plantearnos si hablamos de cualquier texto o si una modalidad es el texto de lenguaje natural y otra modalidad basada en texto (que en este caso sí que hay mucha diferencia) es el código fuente (python, HTML o lo que sea).

A efectos de lo que quiero tratar, en realidad esa distinción fina entre lo que es una modalidad o una variante de una modalidad, realmente me es irrelevante.

Lo que sí es cierto es que hay muchos medios, muchas manifestaciones de conocimiento y de información... y que la inteligencia artificial potencialmente, y no tan potencialmente, puede trabajar con ellas, tanto como información de entrada como de salida.


La multimodalidad, que ya está aquí


Hablar de multimodalidad no es más que hacer referencia a la capacidad por parte de un modelo o de una solución de inteligencia artificial, de trabajar con diferentes tipos de modalidades.

Y eso ya está aquí. Ya hay modelos y aplicaciones, bien conocidas, que generan imágenes a partir de texto, o que te etiquetan (modalidad texto) una imagen. Lo mismo sucede con el vídeo. También podemos generar música partiendo de un texto. Y así, otros muchos casos.

Es decir, la multimodalidad ya está aquí. En algún caso porque los propios modelos sin intrínsecamente multimodales (como sucede con muchos de los que gestionan texto e imagen) y en otros casos porque es la aplicación la que, recurriendo a varios modelos o a otra forma de complementos, logra mezclar varias modalidades en la solución final que se ofrece al usuario.

Es decir, como dice el título, la multimodalidad ya está realmente aquí.


La omnimodalidad y el porqué de ese nombre 


Aunque me parece perfectamente correcto el nombre de multimodalidad, prefiero no obstante emplear otro nombre, omnimodalidad, para referirme a la idea que quiero transmitir y que es más aspiracional en estos momentos.

Y es que, aunque ya hoy en día tenemos multimodalidad, ésta es todavía limitada. Quiero decir que los modelos o aplicaciones involucran un número limitado de modalidades (las más típicas texto e imagen) y en combinaciones más o menos cerradas.

Al hablar de omnimodalidad pienso en una evolución, una ampliación, en la disposición de modelos, o por lo menos aplicaciones, que ofreciesen todas o muchas de las modalidades posibles y en todas o muchas de las combinaciones que tuvieran sentido tanto en entrada como en salida.


La necesidad de superar el término 'gran modelo de lenguaje'


Esta idea de la multimodalidad, y no digamos nada la de omnimodalidad, supera con mucho la idea de un gran modelo de lenguaje. Ya lo hace, de hecho, incluso en la fase actual de multimodalidad. De hecho, creo que ahora mismo, el término 'gran modelo de lenguaje' es realmente incorrecto, o al menos, reduccionista. Cada vez más, los modelos son más y más transversales en modalidad y no es correcto quedarse sólo en el lenguaje, por más que sea su origen y un elemento esencial.

El nombre de modelo fundacional podría ser más adecuado, por más generalista, aunque, por motivos históricos, creo que tiene connotaciones de lenguaje. De todas formas, tal vez sea ese el término adecuado o, tal vez, debamos buscar otro (por ejemplo, 'modelo omnimodal')


Conclusiones


La inteligencia artificial actual no sólo es más transversal en cuanto a la dualidad discriminación-generación. También es más transversal en modalidades, siendo capaz de tratar y mezclar diferentes medios, todavía de una manera imperfecta, pero en camino hacia lo que se me ha ocurrido denominar 'omnimodalidad'.


Artículos de este blog relacionados

viernes, 9 de mayo de 2025

La inteligencia artificial transversal (I): más que una inteligencia artificial generativa

La inteligencia artificial se encuentra en ebullición, inmersa en continuos avances, mejoras y nuevas posibilidades. En ese camino, avanza hacia lo que voy a denominar, intencionadamente, transversalidad, en lugar de emplear el término más habitual, generalidad, por razones que explicaré.

Voy a dedicar una corta serie de posts a revisar en qué sentidos se está produciendo esa transversalidad. En este primer post, comienzo hablando del borrado de la barrera entre la inteligencia artificial generativa y la inteligencia artificial discriminativa.


La aspiración a una inteligencia artificial general


Antes, explico la elección de la palabra transversalidad en lugar de emplear 'generalidad', que sería la elección más sencilla.

Entre las viejas (aunque muy actuales) aspiraciones de la inteligencia artificial, está la de emular la inteligencia artificial humana. La inteligencia humana, aparte de otras maravillosas y asombrosas características, exhibe la generalidad, es decir, la capacidad de abordar con éxito todo tipo de tareas, desde  la lectura al cálculo mental, desde tareas inconscientes como las ligadas a la percepción, la homeostasis o el control del movimiento, hasta tareas conscientes como la resolución de ecuaciones, la planificación de un viaje, o la realización de un diagrama de bloques para expresar una idea.

El mismo cerebro, el mismo y asombroso cerebro, vale para todo. Como diría mi abuela, que en paz descanse, vale 'lo mismo para un roto que para un descosido'.

Y la aspiración, fascinante al tiempo que intimidante, y quizá aterradora, sería que la inteligencia artificial hiciese lo mismo. 

Ya hace muchos años se acuñó la diferenciación entre inteligencia artificial fuerte e inteligencia artificial débil. La inteligencia artificial fuerte sería esa inteligencia artificial de propósito general, similar a la humana, mientras que la inteligencia artificial débil sería la que se concentra en problemas concretos, problemas que puede resolver muy bien, con frecuencia mejor que un humano, pero muy acotados en alcance. 

Y la inteligencia artificial, la que hemos tenido desde su nacimiento, la que en el fondo tenemos ahora mismo, es inteligencia artificial débil.

Sin embargo, hay que reconocer, que la inteligencia artificial ha avanzado en los últimos tres o cinco años en el camino de la generalización. Por decirlo de alguna forma, sigue siendo débil.. pero menos.


Una inteligencia artificial transversal


Si, avanza hacia la generalidad. Es cierto.

Sin embargo, prefiero no utilizar el término "general" y, por tanto, no subirme al carro de la denominación AGI ('Artificial General Intelligence'), a pesar de que, como término, me gusta, porque tienen connotaciones que prefiero evitar.

Si hablamos de una inteligencia artificial general, creo que directamente nos lleva a pensar en una inteligencia artificial fuerte y ya, si nos 'ponemos estupendos', en la famosa singularidad.

A pesar de los formidables avances a que hemos asistido en la inteligencia artificial en los últimos años, y a pesar de que, probablemente, podamos ser optimistas en cuanto a sus perspectivas de avance en los que están por venir, me parece que aún estamos muy lejos, mucho, de una auténtica inteligencia artificial fuerte. Así que mejor no utilizar una palabra que sugiere que estamos llegando a esa inteligencia artificial fuerte.

Pero es preciso reconocer que la inteligencia artificial se está 'generalizando' (de hecho eso es sobre lo que quiero reflexionar en la serie de posts que anunciaba al principio).

Para reflejarlo, para recoger esos avances hacia la generalidad, de momento, y sujeto a revisión, elijo el término 'transversalidad'. No es que me guste ni mucho ni poco, pero creo que me permite expresar la idea sin utilizar AGI.

Hecho este apunte, volvamos al tema principal de este post: el borrado de la frontera entre generativa y discriminativa.


Inteligencia artificial generativa vs discriminativa


No sé, realmente, cuando se acuñó el término 'inteligencia artificial discriminativa' pero yo fui consciente de él, y comencé a utilizarlo en ciertas charlas y clases, a partir del 'boom' de ChatGPT y con él de toda la inteligencia artificial generativa.

Claro, para explicar lo que significaba ese apellido "generativa" necesitabas contraponerlo con la inteligencia artificial que no era generativa, y que se denominó "discriminativa'.

En el fondo, no era difícil explicar lo que era la inteligencia artificial generativa, una inteligencia artificial orientada a la creación (generación) de contenido nuevo, inicialmente texto e imágenes y posteriormente casi cualquier tipo de medio. La creación de imágenes o noticias, por ejemplo, mediante inteligencia artificial, era generativa.

Frente a eso, la discriminativa, de alguna forma, se orienta al análisis de informaciones, y no a su generación. Así, la realización de modelos predictivos, el reconocimiento facial o el análisis de sentimiento de un texto, son tareas discriminativas. 


La generativa se hace también discriminativa


Bueno, pues uno de los pasos que creo que se está dando hacia la transversalidad es la eliminación de la barrera entre discriminativa y generativa

Desde un punto de vista descriptivo o teórico de casos de uso podemos, si queremos, mantener la distinción. Pero si bajamos a su realización técnica, esas barreras están desapareciendo a pasos agigantados.

Los modelos y arquitecturas creadas para tareas generativas, los 'Transformers', los GPTs, Los BERT o los modelos de difusión, han demostrado, y siguen demostrando, que se pueden usar tanto para tareas de generación como de discriminación.

Así, con un modelo de lenguaje tipo GPT o similar, podemos crear nuevo texto, claro, pero también podemos hacer un análisis de sentimiento o un análisis sintáctico, tareas claramente discriminativas, o el resumen de un texto o su traducción a otro idioma, tareas que considero que están a medio camino entre la discriminación y la generación, pero que ya habían sido abordadas por la inteligencia artificial discriminativa.

Igualmente, en el caso de imágenes, podemos, por ejemplo, basándonos en modelos de difusión, crear imágenes o incluso vídeos originales, es decir, tareas netamente generativas, pero también podemos asignarle una etiqueta o descripción a una imagen, tareas que considero discriminativas más que generativas. 


En busca de un nuevo término


Creo que esas barreras entre discriminativa y generativa son ya muy difusas y, probablemente, acaben desapareciendo. Así que, quizá, debamos olvidarnos de hablar de discriminativa y generativa y buscar un tercer término.

O quizá, mejor aún, haya que eliminar los 'apellidos' y volver a hablar, simplemente, de inteligencia artificial, una inteligencia artificial cada vez más potente y, si, más transversal.


Conclusiones


La inteligencia artificial avanza hacia la transversalidad, hacia la capacidad de abordar mayores alcances. En ese camino, uno de los pasos que se da es la eliminación de fronteras entre la inteligencia artificial discriminativa y la generativa.

En próximos posts, veremos otros pasos adicionales.

viernes, 2 de mayo de 2025

El nacimiento de Microsoft contado por el propio Bill Gates

'Código fuente: mis inicios' es una autobiografía de Bill Gates que cubre sólo la primera etapa de su vida, desde la niñez hasta el nacimiento y primeros pasos de Microsoft, siendo, si no me equivoco, 1977 el último año en que se desarrolla la acción. No recoge, pues, para nada, la parte principal de la historia de Microsoft, y no llega a hablar de Windows, y ni siquiera del MS-DOS.

Durante gran parte del libro, de hecho, el foco es más el propio Bill Gates, su abuela, sus padres, su hermana, sus profesores y primeros amigos y, en fin, sus experiencias, infantiles y juveniles. Nos narra su infancia más temprana e, incluso, en algún momento se remonta más atrás para referirse a la historia de sus padres y abuela.

El propio Gates nos ofrece una imagen de sí mismo como un niño de personalidad algo rara y difícil, no buen estudiante a pesar de su inteligencia. De su etapa escolar destaca todo lo relativo a su estancia en Lakeside donde, aparte de la influencia en su formación, y su afortunado acceso a una computadora, algo nada habitual en la época, se destacan algunos amigos que serían importantes para el resto de su vida, y para la propia Microsoft, como es el caso de Paul Allen.

En lo relativo al nacimiento de Microsoft y al desarrollo de la informática y los ordenadores personales, Gates nos traslada a una época donde la informática era desconocida salvo por unos pocos. Nos habla del desarrollo del lenguaje Basic, de la empresa MITS y su ordenador Altair o de los ordenadores PDP y desarrolla una narrativa donde la tecnología y el propio negocio tenían tintes casi heroicos, más de aficionados que de profesionales, muy dependiente de las personas y las individualidades, de sus esfuerzos, su visión y sus genialidades, sin olvidar los toques de pura suerte.

Haya o no algo de teatralización en esa narrativa, es sin embargo muy interesante recordar y conocer detalles del nacimiento de la informática y del ordenador personal, una revisión del pasado que en cierto sentido me ha traído un pequeño ataque de nostalgia, aunque la narración se detiene un poco antes de la época en que yo conocí ya de primera mano los avances en esa informática y ese mundo que entonces todavía no se llamaba digital, aunque lo fuese.

A pesar de tratarse de unas memorias, el estilo de redacción es bastante directo y austero, sin excesivas concesiones a la sensiblería, aunque sí hay pasajes de una cierta emoción, como el que se refiere a la muerte de su amigo Kent.

Cada capítulo se inicia con una fotografía, en general del propio Bill Gates, en la época a que se refiere el capítulo y, con frecuencia, relacionada con lo que en él se relata.

De redacción modesta, sin excesiva calidad literaria, 'Código fuente: mis inicios' tiene sin embargo, nostalgia y curiosidad aparte, el valor del testimonio de uno de los grandes personajes de nuestra época, y uno de los grandes protagonistas e impulsores de la sociedad digital en que nos encontramos inmersos.

Bill Gates

(Fuente: Entrada en Wikipedia en español)

Bill Gates
William Henry Gates III (Seattle, 28 de octubre de 1955), conocido como Bill Gates, es un magnate empresarial, desarrollador de software, inversor, autor y filántropo estadounidense. Es cofundador de Microsoft, junto con su difunto amigo de la infancia Paul Allen. Durante su carrera en Microsoft, Gates ocupó los cargos de presidente, director ejecutivo (CEO), presidente y arquitecto jefe de software, además de ser el mayor accionista individual hasta mayo de 2014. Fue uno de los principales empresarios de la revolución de las microcomputadoras de las décadas de 1970 y 1980.

Su fortuna se calcula en 129.000 millones de dólares (2023) según la revista Forbes, hecho que lo colocó como el cuarto hombre más rico del mundo. Antes del estallido de la burbuja de las punto com, su patrimonio neto ascendió a 114.100 millones de dólares, lo que lo convirtió en la décima persona más rica en toda la historia de la humanidad.​

Es uno de los empresarios más conocidos que surgieron durante los inicios de los ordenadores personales. Ha sido criticado por sus tácticas de negocios, que han sido consideradas anticompetitivas, una opinión que en algunos casos ha sido mantenida por numerosas sentencias judiciales.

Estuvo casado con Melinda Gates, con quien comparte la presidencia de la Fundación Bill y Melinda Gates, dedicada a reequilibrar oportunidades en salud y educación a nivel local, aunque también ha participado en otros países. Por ejemplo, en Nigeria con el programa para erradicar la polio, razón por la cual han sido galardonados con el Premio Príncipe de Asturias de Cooperación Internacional 2006.

Bill Gates nació el 28 de octubre de 1955.[10]​ Es hijo de William H. Gates Sr., un destacado abogado, y de Mary Gates, profesora y rectora d​ela Universidad de Washington, y directora del First Interstate Bank. Con ellos y su hermana, dos años mayor, vivió en la ciudad de Seattle, en el estado de Washington. A nivel familiar, lo apodan, "Trey": William the Third.​

Hasta sexto grado fue alumno regular de un colegio público. Cursó estudios en la escuela privada de élite de Lakeside, en Seattle. Esta escuela tenía ya una computadora en el año 1968, lo que le permitió a Gates tomar contacto con la máquina y aficionarse a la informática. También en Lakeside conoció a Paul Allen, con quien más tarde fundaría Microsoft.

El 4 de abril de 1975, siendo aún estudiante en la Universidad de Harvard, crea la empresa de software Microsoft. En 1976 abandonó la universidad y se trasladó a Albuquerque, sede de MITS, para pactar con esa empresa la cesión del 50 % del lenguaje para computadoras Basic. Al año siguiente, se enteró del éxito de la empresa Apple y de que necesitaban un intérprete de Basic.

En 1980, se reunió con representantes de IBM en Seattle. Ellos querían contar con el sistema operativo CP/M. Él les comento de la existencia de una versión adaptada llamada QDOS u 86DOS, comprometiéndose a conseguir una licencia no exclusiva a fin de adaptarla. Con ello, consiguió venderles la idea del sistema operativo MS-DOS, sin contar con esta, comprando la 86DOS a muy bajo precio al joven programador Tim Paterson. IBM necesitaba ese sistema operativo para competir con Apple, razón por la cual la negociación fue flexible. Microsoft quiso los derechos de licencia, mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó, considerando que lo que produciría dividendos sería el hardware y no el software. Unos días después, Microsoft compró los derechos de autor del QDOS a Tim Paterson, que trabajaba para la Seattle Computer Products, por 50.000 dólares, que vendió a IBM como MS-DOS (Microsoft DOS). Lo que llama poderosamente la atención fue que IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que se vendiera junto con un IBM-PC.

Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente la interfaz gráfica y el «ratón» fueron desarrollados por Xerox PARC) en su ordenador Lisa, se propuso conseguir también el entorno gráfico y el «ratón» para operarlo. Mientras, Steve Jobs, fundador de Apple, iniciaba el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar sus hojas de cálculo y otros programas. Amenazaba con vender su material informático a IBM, con lo que obtuvo una alianza Apple-Microsoft. Microsoft obtuvo legalmente la tecnología del entorno gráfico y del ratón, y sacó al mercado Microsoft Windows, como directo competidor de Macintosh.

Desde comienzos de siglo, el sistema operativo Microsoft Windows (en todas sus versiones) se utiliza en la mayor parte de ordenadores personales del planeta

Puedes saber más del autor, visitando su página Gates Notes, consultando su perfil en LinkedIn o siguiéndole en X donde se identifica como @BillGates.

Ficha técnica:


AUTOR: Bill Gates
EDITORIAL: Plaza & Janés
AÑO: 2025 
ISBN: 978-8401036064
PAGINAS: 368 

viernes, 25 de abril de 2025

El machine learning como fenomenología y la renuncia al conocimiento

El último post de este blog, el titulado ''Lingüistas frente a inteligencia artificial' comentaba cómo, en las primeras épocas del procesamiento del lenguaje natural, los algoritmos se basaban mucho en conocimiento lingüístico, en reglas de ese campo y, por tanto, se precisaba de la participación de lingüistas. Y cómo, sin embargo, con la evolución tecnológica del campo, con su apoyo en modelos estadísticos y, más aún, con modelos procedentes del deep learning, se prescindía de esas reglas a priori, de ese conocimiento de los lingüistas haciendo, en su lugar, que los propios modelos, durante su entrenamiento, aprendiesen los patrones y modelos subyacentes al lenguaje, con lo que se ponía en cuestión el papel de los lingüistas.

Este post es, en cierto sentido, una continuación o, más bien, una generalización del anterior, aunque en este caso lo voy a conectar con la ciencia y, sobre todo, con la filosofía.


Eso de la fenomenología


Y en efecto, utilizo, espero que de una manera no demasiado forzada, el término fenomenología procedente tanto del campo de la filosofía y que me he encontrado con cierta frecuencia en lecturas, por ejemplo, de roboética

Edmund Husserl

Investigando un poquito para este post, descubro que, aunque el término fenomenología se ha utilizado frecuentemente en filosofía (y no siempre en el mismo sentido), quien le dio relevancia y quien, podemos decir, dio forma a la manera más generalizada de entender el término, fue el filósofo Edmund Husserl, maestro, por cierto, de Heidegger, uno de los filósofos que trabajo la filosofía de la tecnología (o la técnica). 

Como ocurre con la filosofía alemana de la época, la verdad es que el tratamiento parece abstracto y complejo pero, intentando encontrar su esencia y expresarla de manera sencilla, y además de una manera que justifique cómo la utilizo en este post, he entresacado este párrafo procedente de la entrada sobre fenomenología en Wikipedia. donde, tras hacer constar que no todos los filósofos tienen una visión unitaria del concepto, lo que sí sucede es que:


todos los fenomenólogos comparten la búsqueda de un conocimiento que apela exclusivamente a la experiencia evidente, carente de hipotetización y modelos conceptuales del mundo


Y no pude, o no quise, dejar de consultar a ChatGPT pero 'rogándole' que explicase el término de forma muy sencilla... y esto es parte de lo que 'me dijo'


La fenomenología en filosofía se puede explicar de forma muy sencilla como el estudio de cómo experimentamos el mundo. Es decir, no se enfoca en cómo son las cosas en sí mismas, sino en cómo se nos aparecen o se nos presentan en la conciencia.


Estos dos párrafos recogen lo que quiero decir con fenomenología, pero, y dado que es un término también utilizado en el mundo de la ciencia, entresaco, también de Wikipedia, este parrafito:


El término fenomenología se utiliza para describir un cuerpo de conocimiento que relaciona entre sí distintas observaciones empíricas de fenómenos, de forma consistente con la teoría fundamental, pero que no se deriva directamente de la misma.


En el fondo, y espero no estar desacertado, con el término fenomenología quiero referirme al fijarse en las manifestaciones externas de objetos y entidades prescindiendo de intentar explicar su naturaleza o leyes internas. Sólo la manifestaciones externas.


IA simbólica versus machine learning


La inteligencia artificial simbólica se apoyaba en la representación explícita del conocimiento del dominio de que se tratase, y de reglas, a veces heurísticas, que gobernaban ese dominio. Así se hacía en los otrora exitosos y hoy casi olvidados sistemas expertos.

Así se hacia, en el fondo, con el procesamiento de lenguaje natural y la lingüística computacional en sus primeras fases, tal y como exponía en el post anterior.

Pero el machine learning, el paradigma dominante de la inteligencia artificial actual, no intenta tener un conocimiento a priori de un dominio. Lo que se hace es, durante el entrenamiento, darle datos, digamos que darle 'ejemplos', al algoritmo, para que sea él propio algoritmo el que descubra los patrones y leyes subyacentes. Pero que los descubra por sí mismo, sin que ningún humano, 'le explique' qué leyes rigen el dominio. Es más, con mucha frecuencia el humano no conoce realmente cuáles son esas leyes. Aún más, con cierta frecuencia está fuera del alcance humano entender completamente las leyes que el algoritmo descubre.


Machine learning y fenomenología


Así las cosas, podemos decir que, cuando usamos machine learning, y muy especialmente cuando hablamos de los grandes modelos de deep learning, especialísimamente los grandes modelos de lenguaje o los modelos fundacionales, nos fijamos en el dominio, por ejemplo el lenguaje, pero 'pasamos' de sus leyes y de su naturaleza y nos fijamos sólo en cómo se manifiesta (en libros o páginas web, por ejemplo). 

Es decir, prescindimos de formular hipótesis o modelos conceptuales y, en su lugar, observamos empíricamente' (bueno, nosotros no, el algoritmo) el dominio sobre el que trabajamos.

¿No es ese un enfoque fenomenológico? 


Una posible renuncia al conocimiento


Bueno, más allá de si realmente hablar de fenomenología en el caso que lo hago es acertado o no, de si estoy forzando el término o no, de si lo estoy entendiendo bien o no, lo que es indudable es que, cuando usamos los algoritmos más avanzados de machine learning, no partimos de leyes y modelos a priori, sino de manifestaciones (datos) de lo que aspiramos a modelar.

Y no es sólo que no partamos de leyes, es que con mucha frecuencia, y esto es 'parte de la gracia' del machine learning, ni siquiera las conocemos. Y, aún más, dado que los modelos de deep learning modernos son muy grandes, muy poco intuitivos, y muy alejados, 'en su razonamiento', del razonamiento consciente humano, realmente cuando el modelo de deep learning ha acabado su labor de aprendizaje, cuando ese  modelo ha encontrado ya el modelo del dominio, nosotros, los humanos, seguimos sin conocer cuáles son las leyes que rigen ese dominio.

Es decir, no aportamos conocimiento del dominio antes del entrenamiento y nos quedamos sin entender el modelo final que abstrae con éxito el modelo.

En cierto modo, hemos renunciado al conocimiento y nos conformamos con el modelo y el algoritmo lo adquieran de alguna manera, aunque no la entendamos, y luego hagan predicciones correctas o proporcionen respuestas correctas.

Hemos renunciado al conocimiento.


Y sin embargo...


Bueno, o no.

Es cierto que, en muchos casos, adoptamos una visión práctica y priorizamos simplemente el que el modelo sea útil, que nos aporte soluciones, que funcione. Sólo eso. No conocimiento.

Pero también es cierto que los resultados obtenidos en un modelo nos pueden hacer intuir, o más que intuir, cómo es el fenómeno real que hay detrás.

También es cierto que, por ejemplo, las soluciones analíticas, nos pueden ayudar a entender mejor nuestro negocio o a los mercados.

También es cierto que los chatbots basados en modelos fundacionales, como ChatGPT nos ayudan, y mucho, a precisamente trabajar en el ámbito del conocimiento, sirviéndonos como copilotos en tareas de aprendizaje o análisis.

También es cierto, en fin, que los modelos de machine learning nos pueden ayudar a entender los propios procesos cognitivos humanos y la naturaleza de nuestro cerebro, nuestro pensamiento y nuestro aprendizaje y ese es un campo real de investigación.

Aunque, en cierto sentido, en machine learning se adopta ese enfoque fenomenológico, y metodológicamente renunciamos a trabajar con las leyes que rigen un cierto campo, eso no debe ser, no tiene por qué ser, una barrera para nuestra propia adquisición de conocimiento. 

Está en nuestras manos adquirir más y más conocimiento con y sin machine learning. Y eso no hay tecnología, metodología ni corriente filosófica que pueda, ni quiera, impedírnoslo.


Conclusiones


La forma de hacer inteligencia artificial en el caso del machine learning, renuncia a aportar a priori un conocimiento interno del dominio o modelo a tratar, sino que es el algoritmo quien lo descubre. Eso sí, una vez descubierto, es difícil de entender a para los humanos.

Aún así, podemos y debemos enriquecer nuestro conocimiento y las herramientas de machine learning en el fondo nos ayudan a ello.

Lejos de convertirse en una renuncia, pueden ser un gran facilitador.


miércoles, 16 de abril de 2025

Lingüistas frente a la inteligencia artificial

Hace unos meses, quizá algún año, escuché a Cristina Aranda, de formación filóloga, y no sé si en un webinar o en una entrevista, aparte de defender, claro está, las profesiones humanistas, decir que no entendía como compañeros y compañeras suyas de estudios de filologías, no se interesaban más por la disciplina de la lingüística computacional.

Así, a bote pronto, me pareció que tenía mucha razón. Me pareció que, en efecto, la lingüística computacional aunaba, por una parte, los necesarios conocimientos de lingüística que aporta un titulado o titulada en filología, con una aplicación muy práctica y creciente dentro del poderoso campo de la inteligencia artificial. Me pareció que era una forma perfecta de desarrollar una profesión dentro del propio área de conocimiento, y un área de conocimiento que, docencia aparte, no parecía tener otras muchas salidas profesionales. Y al mismo tiempo subirse a un carro lleno de oportunidades: la inteligencia artificial.

Aparte de eso a mi que, evidentemente, me gusta e interesa la inteligencia artificial, y que me encantan las áreas transversales de conocimiento y la multidisciplinariedad, me parecía un campo precioso.

Sin embargo en estos días, y precisamente a partir de un estudio más detallado del campo de la lingüística computacional, me han surgido dudas sobre el posible papel de los lingüistas en inteligencia artificial y, en concreto, en el del procesamiento del lenguaje natural.

Veamos.


La lingüística


Aunque por nuestra formación escolar, más o menos todos tenemos una idea siquiera vaga e intuitiva de lo que es la lingüística, recurro al libro clásico 'Lingüística' de Ángel Alonso-Cortés. Tengo que decir que, como por desgracia sucede con demasiada frecuencia en las disciplinas humanísticas, el autor peca, en mi opinión, un poco de exceso de erudición, una erudición muy poco práctica, y aporta varias definiciones aportadas históricamente por diversos autores, y las comenta, pero sin acabar concluyendo con una definición limpia y clara, una del propio autor, que cierre el tema.

Aunque es un poco vaga, apunto la siguiente que aparece al principio del segundo capítulo:


La lingüística es el estudio científico de las lenguas como manifestación universal del lenguaje.


pero añadiéndole esta observación que me parece interesante y que aparece unas líneas más adelante:


El estudio del lenguaje parte del hablar de una lengua como una actividad dirigida por un sistema de reglas o modelos estructurales que el hablante tiene en su consciencia.


Entiendo que el estudio científico de la lengua, del lenguaje, tiene sentido porque existen una serie de reglas o modelos estructurales, y que buena parte de la labor lingüística se encuentra en descubrir, explicitar y entender esos reglas y modelos estructurales. Y se me ocurre añadir que el uso del 'machine learning' como manera de realizar un procesamiento del lenguaje tiene sentido precisamente porque existen una patrones, unas reglas que podemos descubrir, y ese descubrimiento de patrones subyacentes es algo que 'machine learning' hace particularmente bien, casi diría que es su propia naturaleza.

Más allá de definiciones, todos tenemos la imagen de lo que incluye la lengua: la fonología, la sintaxis, la morfología y todas esas cosas que, con mayor o menor profundidad y mayor o menor interés, estudiamos de niños.

Aprovecho para citar dos aspectos que aparecen mucho en las disertaciones de Alonso-Cortés. Por un lado que, aunque en la definición que he aportado no aparece, en el análisis del autor sí que menciona mucho la importancia del análisis comparado entre diferentes lenguas, diferentes idiomas. Y, por otro, la distinción entre filología y lingüística, una diferenciación que debo reconocer que ignoraba. Me quedo con la idea de que la filología es un campo más amplio que incluye la literatura (lo que en el colegio se denominaba típicamente 'lengua y literatura') mientas que la lingüística se centra en el lenguaje propiamente dicho, bastante desconectado de su manifestación literaria.


Lingüística computacional y procesamiento del lenguaje natural


Centrado, siquiera someramente, el campo de la lingüística, vamos a saltar por un momento a la lingüística computacional. En otro libro, este menos sesudo y bastante breve, 'Computational Linguistics: The Science of Language and Machines' de Sam Claydon, me encuentro esta definición:


Computational Linguistics (CL) is the interdisciplinary field that combines linguistics, computer science, and artificial intelligence to enable machines to understand, interpret, and generate human language.


un campo interdisciplinar como se destaca en la siguiente afirmación procedente de la misma fuente


Computational Linguistics (CL) is inherently interdisciplinary, drawing from several fields to create systems that can process and understand human language.


En cualquier caso, estamos hablando de tratamiento del lenguaje por máquinas. 


Procesamiento de Lenguaje Natural


Por su lado, y continuando con la misma fuente, podemos extraer la siguiente definición de procesamiento del lenguaje natural


Natural Language Processing (NLP) is a subfield of artificial intelligence (AI) that focuses on enabling machines to understand, interpret, generate, and interact with human language in a meaningful way.


y unas líneas más abajo


NLP combines computational techniques with linguistic insights to address the complexities of natural language, such as grammar, syntax, semantics, and context.


Lingüística computacional frente a procesamiento del lenguaje matural


¿En qué se diferencia entonces la lingüística computacional del procesamiento del lenguaje natural (NLP, 'Natural Language Processing')?

Creo que, en el fondo, en poco, y menos aún con las tecnologías dominantes hoy en día, algo a lo que volveré más abajo. Sin embargo en más de una fuente, incluida la citada, he visto una distinción, un matiz que es básicamente de foco. 

En general se reconoce el fuerte solape entre ambas disciplinas, lingüística computacional y procesamiento del lenguaje natural, pero se destaca que, mientras que en el procesamiento del lenguaje natural lo que importa es el tratamiento automatizado, son los algoritmos y la obtención de resultados, en lingüística computacional, el foco está en el lenguaje propiamente dicho y el conocimiento lingüístico, un conocimiento lingüístico que, por una parte, puede aportar reglas e ideas de cómo hacer un mejor tratamiento automatizado y que, a la vez, se puede beneficiar de las conclusiones, resultados y experiencias que ofrecen los algoritmos.


La evolución de las soluciones tecnológicas


En el segundo de los libros que he citado, identifica cuatro fases en cuanto a las soluciones técnicas aplicadas en el campo de la lingüística computacional que vendría a ser lo mismo que el procesamiento del lenguaje natural. Serían estas:


  • Sistemas basados en reglas: Aplicaban reglas basadas de la teoría lingüística, y con frecuencia procedente del campo de la sintaxis, para analizar y generar lenguaje. Se apoyaban en conceptos como gramáticas y ontologías.

  • Sistemas estadísticos: En lugar de ir a una visión más estructural, se trabaja con las propiedades estadísticas de las lenguas. Es la época de los n-gramas o de los famosos y muy fructíferos Modelos Ocultos de Markov (HMM, 'Hidden Markov Models')

  • Sistemas de deep learning: Entran en escena las redes neuronales, y cobran relevancia, sobre todo, las redes neuronales recurrentes (RNN, 'Recurrent Neural Networks') donde, en realidad, el diseñador ya sabe poco del lenguaje y el conocimiento cada vez queda más distribuido en los pesos de la red

  • Transfer learning y grandes modelos de lenguaje: Desarrollo de modelos preentrenados cuyo conocimiento se puede trabnferir o reutilizar en multitud de aplicaciones y casos de uso. Nos hallamos ante modelos basados de una forma u otra en la arquitectura Transformer, en el uso de los mecanismos de atención y en una extensión multiuso y multimodal que nos lleva a hablar de modelos fundacionales.


Aunque quedan rastros de todas las fases, hoy en día, y desde hace unos tres años aproximadamente, el campo está claramente dominado por los grandes modelos de lenguaje y los modelos fundacionales


Reflexiones sobre el papel de los lingüistas


Y es a raíz de esa evolución tecnológica donde me ha dado por reflexionar y replantearme el papel de los lingüistas en la lingüística computacional y el procesamiento del lenguaje natural.

En la primera de las fases, la que se apoya en reglas procedentes de la lingüística, su papel es clarísimo: se necesitan especialistas en lingüística para investigar y guiar los desarrollos de algoritmos que se apoyen en esas reglas. Y seguramente también su aportación es útil e incluso necesaria, en la definición de gramáticas y ontologías, e incluso en la conformación de corpora de trabajo.

Sin embargo, a medida que han ido evolucionando las tecnologías, cada vez usan menos un conocimiento del lenguaje como tal, cada vez tienen una naturaleza más estadística y más autónoma, entendiendo en este caso por autónoma que, en cierto sentido, son los propios algoritmos los que descubren las regularidades sintácticas, morfológicas, fonológicas y de todo tipo que subyacen al lenguaje humano, sin necesidad de que les proporcionemos desde el exterior las reglas lingüísticas y necesitando 'sólo' ejemplos (eso sí, muchísimos ejemplos) de cómo utiliza el ser humano su lenguaje.

En esta situación me cuesta mucho más ver el papel de los lingüistas. No me atrevo a decir que no exista. Quizá puedan, a pesar de todo, orientar a alto nivel, hacia dónde trabajar con algoritmos o quizá, y aquí lo veo algo más claro, puedan trabajar en la evaluación y validación de modelos, una tarea que aunque se intenta automatizar, todavía tiene componente humano. 

Pero de todas formas, me parece apreciar que su papel se diluye, que en la medida que los algoritmos ya no reciben como entrada, o no se apoyan en el diseño, en características estructurales del lenguaje humano, la aportación del lingüista es mucho menor.

¿Es cierta mi percepción?

Me encantaría tener la opinión de lingüistas que hayan trabajado alguna vez en lingüística computacional o en procesamiento de lenguaje natural, o de personas que hayan participado en la construcción de modelos y algoritmos de procesamiento del lenguaje, a ver si comparten mi percepción o, por el contrario, me descubren grandes áreas de trabajo de los lingüistas en lingüística computacional y procesamiento del lenguaje natural.

Me alegraría mucho, tengo que decir, de que existiesen esas áreas.


Conclusiones


Aunque los campos de la lingüística computacional y del procesamiento del lenguaje natural se centran en el lenguaje, la aportación de la disciplina por excelencia del campo del lenguaje, la lingüística, parece diluirse a medida que los algoritmos se apoyan menos en conocimiento y reglas explícitos y más en propiedades estadísticas y descubrimiento automatizado de los patrones subyacentes.



miércoles, 9 de abril de 2025

Retos para una mano robótica

Cuando pensamos en robots humanoides y los retos que su diseño y construcción conllevan, tendemos a pensar en los aspectos cognitivos, en inteligencia artificial. 

Y en parte es verdad, pero existen otros tipo de retos, tampoco hoy en día completamente superados y que, realmente, suponen un tremendo esfuerzo de ingeniería y diseño.


Algún reto no específicamente cognitivo


Sin que esto suponga, ni muchísimo menos, un censo exhaustivo, ni siquiera un ranking cierto de los problemas más complejos, se me ocurre, antes de abordar el caso de la mano robótica, citar dos retos que no son específicamente cognitivos.

El primero de ellos, creo que sólo parcialmente superado, es el de la marcha bípeda. La marcha bípeda supone un gran problema no sólo de coordinación, sino también de equilibrio. Aunque se trata de un problema parcialmente resuelto, de hecho vemos ya muchos robots humanoides caminando, lo cierto que todavía el andar de los robots existentes es en general algo torpe, lento y 'robótico'. Y les cuesta mucho el correr y ya no digamos hacer otros ejercicios como saltar o moverse por terrenos irregulares. De todo ello hay demostradores y en algunos casos realizaciones prácticas, pero creo que sigue siendo un tema complejo y no del todo resuelto. Un tema complejo, pues, sobre el que técnicamente se debe avanzar aún. Pero también un tema que hace reflexionar hasta qué punto, para muchas aplicaciones prácticas, no es más razonable utilizar robots con otro tipo de soporte, quizá varias patas, quizá orugas.

Otro tema, con algo más de componente cognitivo, es la coordinación habla-gesto. Ya hay robots avanzados (por ejemplo Ameca) que coordinan su gesto con aquello que dicen. Igualmente, en avatares o humanos digitales, se consigue bastante coordinación. Pero al menos en todo lo que yo he visto, sigue siendo una coordinación algo primitiva y el resultado es todavía artificioso. Se trata de un problema muy complejo, no sólo por la coordinación en sí misma sino porque, para conseguir un gesto natural, especialmente en robots físicos, se necesita un rostro hecho de materiales blandos, con un número de actuadores razonablemente similar a los músculos de un rostro humano y porque, aunque sigue un patrón común, ni siquiera la expresión del rostro humano es exactamente igual de una persona a otra. Más variado es aún, si cabe, el movimiento de las manos, algo fundamental en nuestro lenguaje no verbal.


Retos de una mano robótica


Pero vamos ya a ver alguno de los retos que plantea construir una mano robótica. Me refiero, por supuesto a una 'verdadera mano', no a un actuador o garra de un robot industrial que, en ocasiones, tiene una forma cercana de alguna manera a una mano.

En el libro 'Humanoid robotics and neuroscience' editado por Gordon Cheng, y en concreto en el capítulo 'Hands, dexterity and the brain' escrito por Helge Ritter y Robert Haschke describen algunas de las características de una mano humana, en los que se trabaja, no sin dificultades, para trasladar a una mano robótica.

En primer lugar, nos recuerdan que una mano humana está accionada por más de 30 músculos, que le proporcionan aproximadamente 20 grados de libertad y que, además, está dotada de numerosos sensores y elementos propioceptivos (sentirse a 'sí mismo'). Esto supone que, caso de que queramos imitarla completamente, se debe diseñar un sistema mecánica y sensorialmente muy complejo.

El alto número de grados de libertad se afronta en ocasiones usando menos actuadores que grados de libertad pero acoplando elementos lo que lleva a patrones fijos de movimiento. Es una solución práctica, pero que lleva a una mano robótica menos flexible y adaptable que la humana.

Un tema inesperado, al menos para mi, tiene que ver con la aplicación de fuerzas. Según los autores, una mano humana es capaz de aplicar una fuerza de 400 Newtons y más. Evidentemente, existen motores capaces de aplicar esa fuerza y fuerzas mucho más altas. pero no existen o al menos no en el momento en que los autores escribían este capítulo, micromotores capaces de integrarse en una mano robótica de dimensiones y morfología similares a una mano humana y capaces de aplicar esa fuerza. Para conseguir la fuerza deseada, se acude a diseños en que los actuadores son externos a la mano, situados en el antebrazo, y unidos mediante una suerte de 'tendones' a los dedos.

Cuando el uso de la mano robótica es como prótesis, no tanto para formar parte de un robot humanoide, el peso es también un problema fundamental. Los autores nos explican que se recurre, por ejemplo a diseños muy bien estudiados que permiten reducir el número de grados de libertad , y por tanto de actuadores, esto es, motores, necesarios, lo que lleva a reducir el peso. En algunos casos, se consigue incluso reducir a un único grado de libertad. Además, el uso de actuadores hidráulicos o neumáticos reduce el peso del actuador.

La velocidad, en concreto la velocidad del movimiento de los dedos, constituye otro reto importante. Esta velocidad es importante, por ejemplo, para coger objetos lanzados por el aire, dar la vuelta a un objeto entre los dedos o tocar un instrumento musical. Conseguir esa velocidad, aparte de retos de control, implica utilizar materiales ligeros (para disminuir inercia) y motores rápidos.

Volviendo a los grados de libertad, el manejo coordinado de un alto número de grados de libertad es otro reto de coordinación y control. Para este control, además, se necesitan sensores (potenciómetros, sensores de efecto Hall, sensores ópticos, etc) que proporcionen información de realimentación del movimiento real conseguido, para eliminar errores, de la forma, entiendo, en que habitualmente se realizan los sistemas de bucle cerrado.

La propia superficie de contacto de la mano implica un diseño cuidadoso. La mano humana es a la vez blanda, adaptable y rugosa. Las características mecánicas de la mano humana son pues muy complejas, pero también muy necesarias para su función, y no sencillas de conseguir en manos artificiales.

Además, muchas acciones humanas son bimanuales, utilizan las dos manos. Crear dos manos robóticas que actúan en oposición pero de forma coordinada, tiene también su complejidad.

En algunos de estos retos hay mayores avances y en otros menos en las manos robóticas actuales, pero todos estos retos, y otros que seguramente existan y no hayamos mencionado aquí, son una demostración de la complejidad (a la vez que la versatilidad) de una mano humana, e ilustran la dificultad de conseguir una mano robótica que la emule en su totalidad.


Conclusiones


La construcción de robots humanoides presenta retos que van mucho más allá (o mucho más acá, según se prefiera) de sus capacidades cognitivas o de los avances de la inteligencia artificial. Presentan también importantes problemas mecánicos, de materiales, cinemática, dinámica y control, que hemos ilustrado someramente en el caso de la mano, y constituyen un reto de ingeniería de primer orden.