lunes, 31 de octubre de 2022

Lenguaje, 'grounding' y la corporeidad de los robots

En un artículo reciente hablábamos del concepto y problemática del 'embodiment' en los robots, un término que en aquel momento traduje como 'encarnación' pero que, siguiendo algún acertado comentario recibido, pasaré a traducir como 'corporeización' aunque se trate de una palabra algo extraña y casi artificiosa en castellano.


Sobre la corporeidad de los robots


En cualquier caso, llamémosle corporeización o por su denominación en inglés, 'embodiment' se trata de un asunto al que muchos roboticistas y también muchos neurocientíficos conceden capital importancia, los primeros, evidentemente, por su aplicación en robots, los segundos por su importancia en seres vivos y particularmente en el ser humano.

Para muchos roboticistas, esa corporeidad, ese 'embodiment' como ya vimos, es definitorio del concepto de robot e impacta de forma directa en muchas de sus tareas cognitivas e, incluso, algunos neurociencientíficos y roboticistas consideran que es imprescindible para el nacimiento de la consciencia.


El anclaje del lenguaje


En este artículo quisiera revisar una derivada de esta corporeización y que, quizá, sea menos intuitiva: la relación entre el cuerpo y la realidad física con el lenguaje.

Y lo hago basándome en el capítulo que sobre Human Robot Interaction (HRI) firma Tony Belpaeme en el libro 'Cognitive robotics' editado por  Angelo Cangelosi y Minoru Asada y también en algún apunte procedente del libro 'Introduction to AI robotics' de Robin R. Murphy.

En la primera de las fuentes se comentan los grandes sistemas de procesamiento de lenguaje natural, en concreto, se cita GPT-3, pero se recalca que este tipo de soluciones NLP ('Natural Language Processing') y, a pesar de la existencia de toda una rama denominada entendimiento del lenguaje natural (NLU, 'Natural Language Understanding') realmente no entienden nada de lo que 'hablan' o 'escuchan', no al menos en el sentido en que los humanos entendemos el lenguaje.

Y dan una razón que enlaza con el discurso de la corporeidad: que en este tipo de sistemas, las palabras no están ancladas ('grounded') al mundo real. 

Y eso, nos hacen ver, es completamente diferente a lo que hacemos los humanos que, lógicamente, sí que entendemos en sentido profundo, las palabras. En concreto, y comparando estos sistemas NLP con el leguaje y cognición humana, nos dice;


The contrast with human cognition could not be greater: all the words and linguistic constructions we use are grounded in sensory reality 


Es decir, sin un mundo físico al que anclar las palabras y sin unas entradas sensoriales que nos proporciona nuestro cuerpo, es imposible ese anclaje del lenguaje en el mundo, ese dar sentido a las palabras, y un verdadero entendimiento del lenguaje.


Robots y lenguaje. 'Grounding'


Y, en efecto, desde el punto de vista de la robótica, en cierto sentido se recoge ese guante procedente de las ciencias cognitivas. 

En su libro,  'Introduction to AI robotics', Robin R. Murphy comenta cómo los robots disponen, para entender y moverse por él, de un modelo del mundo ('world model'), una estructura de conocimiento dotada de símbolos y etiquetas, y en el que elementos del mundo real reciben esa representación y esas etiquetas. Nos dice la autora:


The process of assigning symbols to objects or concepts is called symbol grounding in cognitive science. Robotics concentrates on physical symbol grounding, where data acquired abut the physical world from sensors are assigned to symbols.


Y más adelante añade:


Physical symbol grounding involves anchoring, assigning labels to perceptual inputs and thus anchoring perception to a common frame of reference that can be used by the deliverative functions of the robot


Es decir, se apuesta por esa asignación de etiquetas a lo percibido sensorialmente del mundo real.

Y, en efecto, se nos describen algunas experiencias con robots intentando conseguir un aprendizaje en que los robots asignen esas etiquetas linguisticas a los objetos y realidades que perciben (a una de esas experiencias corresponde la imagen de portada).


¿Qué pasa con los agentes conversacionales?


Si eso es así, ¿Qué pasa con los robots conversacionales, con los chatbots, los voicebots etc?  Bueno, en sus implmentaciones habituales, simplemente se adhieren a lo comentado al respecto de GPT-3: hacen uso del lenguaje, un uso cada vez más sofisticado y 'natural' del lenguaje, pero, si no añadimos nada más, no van a 'entender' realmente aquello lo que 'hablan', proporcionan una interfaz muy eficaz, pero no un verdadero entendimiento. Nos dice Belpaeme: 


A chatbot can utter phrases about feelings or the weather, but it does not really understand what it is talking about. It has never experienced feelings or weather; or any other words for that matter.


Es decir, el chatbot no entiende, en el sentido profundo del término, aquello de lo que habla. Y el motivo, en el fondo, ya lo sabemos, pero dejemos que sea Belpaeme quien nos lo exprese:


The words that a chatbot uses are not grounded. Grounding happens when words and linguistic expressions area experienced and from that become meaningful.


Eso es. Esas palabras carecen de anclaje, de contrapartida física y sensorial.


Conclusiones


El tema del anclaje del lenguaje y la eventual relación de este con la realidad física, me parece un tema interesantísimo y puede ser un aspecto importante a tener en cuenta si queremos conseguir máquinas más inteligentes y, en cierto sentido, más conscientes (sin extremar el significado de esta palabra).

Sin embargo, y como ya insinué en el artículo sobre 'embodyment', le estoy dando vueltas a algunas matices y reservas sobre esta exigencia de 'corporeidad' y de anclaje físico, pero, como entonces, me las reservo hasta que las tenga más claras y estructuradas.


lunes, 24 de octubre de 2022

Neuronas espejo y robots altruistas

La Inteligencia Artificial y diría que especialmente la Inteligencia Artificial aplicada al campo de la robótica, tiende a fijarse en la inteligencia humana. 

Lo hemos comentado repetidamente en este blog: aunque no debe extremarse imprudentemente la similitud que existe entre Inteligencia Artificial e Inteligencia Natural, sí que es cierto que los ingenieros y científicos de los campos cognitivos miran con frecuencia hacia el cerebro humano y cómo hace éste las cosas (al menos hasta donde sabemos, que no es tanto), para intentar trasladar ideas a algoritmos y robots en lo que se suele denominar biomímesis aunque, con frecuencia, no puede pasar más allá de lo que llamaría una 'bioinspiración'.

Recientemente ha captado mi atención conocer el el foco que en algunas investigaciones en robótica, en robótica cognitiva, se pone las neuronas espejo, algo que se describe brevemente en el   libro 'Cognitive robotics' editado por  Angelo Cangelosi y Minoru Asada y, en concreto, en un capítulo firmado por Yukie Nagai.


Las neuronas espejo


Las neuronas espejo son un tipo particular de neuronas descubiertas en 1996, y de forma casual, por Giacomo Rizzollatti

Las neuronas espejo se activan o disparan tanto cuando un animal realiza una cierta acción como cuando observa realizar esa misma acción a otro animal, especialmente si es un congénere, de manera que, bajo el punto de vista de estas neuronas, es como si el animal observador estuviese realizando las mismas acciones que el observado.

Aunque su funcionamiento y papel no se conoce suficientemente, se hipotetiza con que las neuronas espejo juegan un papel importante en todas las capacidades cognitivas relacionadas con la interacción social, como puede ser la empatía


La lectura de intenciones humanas por parte de robots


Yukie Nagai con un robot iCub

Con la inspiración de las neuronas espejo se ha trabajado en robótica cognitiva para intentar conseguir que los robots sean capaces de detectar y entender ('leer') las intenciones de los humanos y también conseguir comportamientos altruistas.

Aunque no se sabe realmente cómo, los neurocientíficos parecen tener claro que el cerebro humano es capaz de detectar los objetivos de otros seres humanos y deducir las intenciones detrás de sus acciones.

Intentando conseguir esos mismos efectos algunos roboticistas han propuesto modelos computacionales inspirados en las neuronas espejo. En la obra citada, se menciona el desarrollo de unas redes neuronales profundas, en algunos casos un autocodificador ('deep autoencoder') y en otros, unas redes con entrada multimodal ('deep belief networks') capaces, al menos en ciertos experimentos de laboratorio, de estimar e imitar las emociones de terceros.

El salto hacia el altruismo quiere decir que si los robots son capaces de detectar los objetivos e intenciones de los humanos, podrían ayudarles en la consecución de esos objetivos. Aunque en la fuente en que me apoyo no explica mucho más, asumo que la palabra altruista, aunque correcta, puede hacer pensar en cosas más fantasiosas de lo que probablemente se trate realmente. No creo estemos hablando, al menos no por el momento, de un altruismo como virtud elevada, sino que probablemente se trate de  objetivos más allá de mover piezas, ensamblar un equipo y cosas así.  

Lo cual no le resta interés ni valor.


Conclusiones


Tengo ganas de enterarme de algo más acerca de los avances en este campo, como tantos otros de la robótica cognitiva, y saber si se ha conseguido un salto hacia algo más que pruebas de investigación y laboratorio.

Desde luego, el campo es interesantísimo y, más allá de algunos eventuales miedos y resistencias, abre posibilidades fantásticas, casi futuristas... o al menos eso parecen ahora mismo.


viernes, 21 de octubre de 2022

El problema de la encarnación ('embodiment') de los robots

En la literatura técnica, pero también en la que tiene que ver con aspectos más humanísticos, como la propia ética, se suele destacar como una característica, no solo relevante sino, para muchos, incluso definitoria de los robots, el hecho de que, por decirlo de alguna manera, tienen un cuerpo, algo que en inglés se expresa utilizando el término 'embodiment' de difícil traducción al castellano, pero que en diccionarios que he consultado traducen como 'encarnación', materialización o personificación.


Sobre el 'embodiment'


El término 'embodiment' no es de fácil traducción, como digo. Hablar de 'encarnación' parece implicar un cuerpo biológico (de carne) y personificación, especialmente hablando de robots, tiene connotaciones antropomórficas que van más allá de lo que realmente se quiere decir. Quizá, 'materialización' sea lo más próximo al su verdadero sentido.

En efecto, lo que viene a implicar el término 'embodiment' es que los robots tienen una realidad física, algo así como un cuerpo. De hecho, para algunas instituciones o pensadores, los robots software, como los que trata mi libro 'Robots en la sombra' no son robots por ausencia de un cuerpo, algo que creo que puede ser discutible bajo varios puntos de vista, pero que, en cualquier caso ,refleja la importancia que a ese cuerpo, a esa materialización se le concede en el ámbito de la robótica, incluida la robótica cognitiva.

De todas formas, una mayor concreción sobre lo que significa ese 'embodiment', también está sometido a cierto debate y concepciones. De hecho, en libro 'Cognitive robotics' editado por  Angelo Cangelosi y Minoru Asada y, en concreto y, en un capítulo firmado por Tom Ziemke, se revisan algunas formas de entender el 'embodiment'.

No voy a entrar en todos los detalles, pero sí comentar, por ejemplo, que en muchas concepciones sobre ese 'embodiment' juega un papel muy importante lo que tiene que ver con el entorno físico y su interacción con él.

Así, se menciona el 'embodiment' entendido como un acoplamiento con el entorno.


sytems are embodied if they are  structurally coupled to their envrironment.


O también hace mención a una visión en que se pone énfasis en la interacción sensomotora con ese mismo entorno.

Tan importante se considera la interacción del cuerpo en los seres vivos que hay autores que afirman que


cognition is what living systems do in interaction with their environment.


La eventual importancia del 'embodiment'


¿Por qué se le da tanta importancia a esa idea del 'embodiment'?

Bueno, pues el cuerpo porque se entiende que en los seres biológicos el cuerpo juega un papel esencial. El cuerpo mediante los sentidos, nos pone en contacto con nuestros entorno y el cuerpo, mediante nuestras manos, piernas, etc, nos permite actuar sobre ese entorno.

Y el cuerpo porque, de alguna forma, delimita las fronteras de un ser vivo y de alguna manera su unidad.

Y el cuerpo, finalmente, porque, incluso, existen teorías en que la percepción del propio cuerpo, o la percepción de los resultados de la interacción del cuerpo con su entorno, pueden ser ingredientes fundamentales en el nacimiento de la consciencia.


Robots y 'embodiment'


Y si el cuerpo es tan importante para los seres vivos, y si mediante robots queremos de alguna manera, sustituir la labor de seres vivos incluyendo personas, y si además, la naturaleza es con frecuencia la inspiración de los trabajos en inteligencia artificial y robótica, pues parece lógico prestarle mucha atención al cuerpo y no es de extrañar, aunque personalmente creo que puede ser una concepción algo limitadora, entender que los robots deben poseer alguna forma de cuerpo, exhibir el famoso 'embodiment'.

Por supuesto, necesitamos robots con cuerpo si queremos que afecten directamente al mundo físico,  aunque quizá no debamos despreciar la actuación indirecta sobre ese mundo a través de interacciones sociales con otros agentes, las personas, que sean quienes actúen realmente en el mundo físico.

Y por supuesto también, necesitamos alguna traza de cuerpo en forma de sensores si queremos que los robots perciban el mundo físico, incluyendo percibir a las personas, mediante en diferentes modalidades incluyendo el reconocimiento de su voz.

Y si además de todo eso, creemos que el cuerpo juega un papel fundamental en el desarrollo de las capacidades cognitivas, y si incluso, existen teorías que consideran que la percepción del propio cuerpo es fundamental para el nacimiento de la consciencia, y aspiramos a que los robots puedan tener consciencia (si es que realmente consideramos necesario el cuerpo para la consciencia y, lo que es más importante, si es que realmente deseamos unos robots con consciencia), necesitarían un cuerpo.


Una idea final


Y si, me parece que el cuerpo, la realidad física de los robots es muy importante en muchos, muchísimos casos.

Y sin embargo personalmente, y reconozco que esto es bastante atrevido por mi parte, tengo una cierta sensación, aún por analizar y confirmar o desmentir, de que se 'exagera' un poco la importancia del cuerpo cuando hablamos de robots y de capacidades cognitivas artificiales, de que quizá nos hemos dejado arrastrar en exceso de la biiomímesis y de nuestra visión antropomórfica.

Pero eso es, en realidad, un campo de investigación, estudio y reflexión.

Puede que en algún momento vuelva sobre el tema, y puede que lo haga con nuevas ideas... o no.


viernes, 14 de octubre de 2022

Un panorama de Amazon AWS con Alberto Artasanchez

'AWS for solutions architects' es un libro técnico y descriptivo que aborda los aspectos arquitecturales y servicios fundamentales de Amazon AWS.

El libro se estructura en 14 capítulos agrupados en cuatro secciones como sigue:
  • 'SECTION 1: EXPLORING AWS': Ofrece una visión introductoria y de alto nivel sobre cloud computing, AWS y la migración a la nube y lo hace en dos capítulos:

    • 'Chapter 1 Understanding AWS Cloud Principles and Key Characteristics': Capítulo introductorio al mismo concepto de cloud computing y algún detalle de AWS. Primero explica qué es el cloud computing y por qué es tan popular hoy día y también detalla qué es AWS y aporta algunos términos. A continuación menciona unos principios para una buena arquitectura y dedica gran parte del resto del capítulo a comentar la importancia y mecanismos para certificarse en AWS.

    • 'Chapter 2 Leveraging the Cloud for Digital Transformation': Incluye dos partes bien diferenciadas. En la primera cuenta la estructuración hardware y geográfica de AWS, hablando de las regiones, 'Availability Zones' y 'Local Zones'. En la segunda parte se centra más en los proyectos para ir a la nube comentando las diferentes estrategias posibles y las herramientas que ofrece AWS para ayudar en esa migración. Además, habla de una forma que se me antoja algo genérica y casi forzada de transformación digital.

  • 'SECTION 2: AWS SERVICE OFFERING AND USE CASES': Una revisión de los servicios fundamentales de AWS muy centrados en la computación, en la seguridad y, sobre todo, en el almacenamiento y el tratamiento de datos. A ello dedica seis capítulos:

    • 'Chapter 3 Storage in AWS – Choosing the Right Tool for the Job': Aborda primero el almacenamiento de bloques con el servicio EBS ('Elastic Block Storage') y EFS ('Elastic File System') y luego dedica gran parte del espacio a hablar de almacenamiento de objetos y del servicio S3 ('Simple Storage Service') en sus diferentes variantes: 'Standard', 'Intelligent-Tiering', 'Standard-IA', 'One-Zone IA', 'Glacier' y 'Glacier Deep Archive' y finaliza aportando algunas buenas prácticas.

    • 'Chapter 4 Harnessing the Power of Cloud Computing': Tras explicar los conceptos de IaaS, PaaS y SaaS, aborda el servicio EC2 ('Elastic Compute Cloud') para cuyo uso también proporciona buenas prácticas y finaliza poniéndolo en relación con el servicio S3 visto en el capítulo anterior.

    • 'Chapter 5 Selecting the Right Database Services': Hace un repaso de los tipos de bases de datos existenes y, al hilo de ese repaso, va presentando servicios de AWS que las soportan. Así, en cuanto a bases de datos relacionales menciona el servicio RDS ('Relational Database Service'), en relación con las bases de datos de tipo clave-valor y las documentales saca a relucir 'DinamoDB', en cuanto a bases de datos columnares aparece MCS ('Managed Cassandra Service'), en cuanto a consultas se habla de ElasticSearch y Kendra, en lo relativo a bases de datos en memoria se menciona Elastic Cache, en bases de datos de grafo aparece Neptune, en series temporales Timestream, en las de tipo 'ledger' Quantum y, finalmente, para procesamiento analítico (OLAP), se habla de Redshift.

    • 'Chapter 6 Amazon Athena – Combining the Simplicity of Files with the Power of SQL': Aborda Athena, una solución para consultar ficheros y objetos usando una sintaxis SQL como si fuesen tablas. Explica algunos de los formatos de ficheros que puede leer (CSV, JSON, ORC, Avro, Parquet), algo del funcionamiento interno de Athena y también la idea de las consultas federadas. Tambien menciona brevemente el concepto de workgroups, las APIs athena y la optimización de Athena.

    • 'Chapter 7 AWS Glue – Extracting, Transforming, and Loading Data the Simple Way': Trata el servicio 'Amazon Glue' dedicado a laboras de ETL ('Extract Transform, Load'), explica el manejo desde la consola y conceptos como el catálogo, los 'crawlers' y los 'classifiers'. También cuenta las capacidades para procesar datos provenientes de servicios de streaming y finaliza aportando unas buenas prácticas.

    • 'Chapter 8 Best Practices for Application Security, Identity, and Compliance': Se cierra esta sección con un capítulo sobre identidad y seguridad. Tras remarcar la importancia de la gestión de identidad y la seguridad, explica la gestión de identidad y gestión de acceso (IAM, 'Identity and Access Management') dentro de AWS. Luego habla de la administración de usuarios, grupos, roles, políticas y permisos y finaliza apuntando algunas ideas sobre una larga lista adicional de servicios relacionados con la seguridad como Control Tower, Shield, Key Management Services y así un largo etcétera.

  • 'SECTION 3: APPLYING ARCHITECTURAL PATTERNS AND REFERENCE ARCHITECTURES': Abandona en cierto sentido la descripción de servicios concretos para adoptar una perspectiva más global y de arquitectura aunque eso lleve, a su vez a descubrir nuevos servicios. Se compone de cinco capítulos:

    • 'Chapter 9 Serverless and Container Patterns': habla de dos conceptos fundamentales en la visión de sistemas en general y de cloud en particular hoy en día: contenedores y 'serverless'. Explica las ideas sobre virtualización así como los productos Docker y Kubernettes, lo que lleva a la mención del servicio EKS ('Elastic container service for Kubernetts'). También se describen Fargate y AWS Batch.

    • 'Chapter 10 Microservices and Event-Driven Architectures': Habla de servicios y de arquitecturas orientadas a eventos, explicando los conceptos, las ventajas y desventajas y algunas buenas prácticas.

    • 'Chapter 11 Domain-Driven Design': Habla del diseño orientado a dominios para lo que parte de una perspectiva histórica que nace con la orientación a objetos. Dedica bastante espacio a explicar los conceptos detrás de esta arquitectura y luego retoma el tema de los microservicios iniciado en el capítulo anterior, explicando diferencias y ventajas frente a arquitecturas monolíticas, para luego explicar cómo se manejan los microservicios en AWS y finalizar con algunos ejemplos.

    • 'Chapter 12 Data Lake Patterns – Integrating Your Data across the Enterprise': Le toca el turno a los 'datalakes'. Explica lo que son, sus componentes, algunas buenas prácticas y una selección de indicadores.

    • 'Chapter 13 Availability, Reliability, and Scalability Patterns': Habla de alta disponibilidad y de escalabilidad, explicando primero los conceptos arquitecturales para luego volver la vista hacia AWS y describir cómo se gestiona la disponibilidad en servicios como EC2 o RDS y explicar aspectos de reparto de carga soportados por el servicio EBS ('Elastic Load Balancer').

  • 'SECTION 4: HANDS-ON LABS': Ejempifica todos los conceptos aplicados en un capítulo final único.

    • 'Chapter 14 Hands-On Lab and Use Case': Un capítulo final en que desarrolla de principio a fin una caso de uso de una arquitectura web serverless.

'AWS for solutions architects' es un libro correcto, efectivo aunque sin brillantez, que supone una buena introducción a AWS y que, de paso, permite entender, llevado a un proveedor y soluciones reales, los principales conceptos actuales en materia de cloud computing y arquitecturas cloud nativas.

Una referencia no definitiva, pero sí bastante útil.

Alberto Artasanchez


(Fuente: Traducción y ligera elaboración propia de su ficha de autor en el libro 'AWS for solutions architects')

Alberto Artasanchez
Alberto Artasanchez es un arquitecto de soluciones con experiencia en cloud, soluciones de datos y machine learning en una carrera que se extiende durante más de 30 años en varios sectores.

Es embajador AWS y escribe frecuentemente en una variedad de publicaciones sobre cloud y ciencia de datos. Es requerido a menudo como speaker sobre temas que incluyen la ciencia de datos, big data y analítica.

Tiene un importante historial en el diseño y construcción de plataformas de machine learning a gran escala. También tiene un largo historial en la dirección de equipos y en su mentorización, coaching y motivación. Posee un gran entendimiento sobre cómo la tecnología impulsa el valor de negocio y le apasiona crear soluciones elegantes para problemas complejos.

Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @aartasanchez.

Ficha técnica:

EDITORIAL: Packt Publishing
AÑO: 2021 
ISBN: 978-1789539233
PAGINAS: 454


lunes, 10 de octubre de 2022

Ética de los robots: un censo de temas

Existe, como se ha comentado ya frecuentemente en este blog, un gran interés desde hace, digamos, dos o tres años, puede que más, en todo lo que tiene que ver con la ética de la inteligencia artificial.

Eso lleva aparejado también una ética de los robots, una roboética, una ética que, en mi opinión, tiene muchos puntos de solape, pero también notables aspectos diferenciales con la ética de la inteligencia artificial en geneeral, algo de lo que, seguramente, hablaré de forma más extensa y detallada en algún otro momento.

De momento, en este post, quería sólo recoger un pequeño censo de temáticas éticas, un censo que no pretende ser exhaustivo ni profundo sino solo, a modo de apuntes, un resumen de lo que al respecto se explica en el libro 'Cognitive robotics' editado por  Angelo Cangelosi y Minoru Asada y, en concreto en un capítulo firmado por Vincent Müller. Antes de entrar en materia, destaco la siguiente afirmación que, de alguna manera, parece confirmar mi percepción de la singularidad de la ética de los robots.

The ethics of robotics is a very young field within applied ethics, with significant dynamics but few well-established issues and no authoritative overviews. 

Ni autoridades claras ni un conjunto delimitado de problemáticas. Coincido con esa apreciación. De todas formas, sí que existen puntos de partida. En concreto, en este libro, se dividen los temas de ética relacionado con los robots en dos grandes áreas, la ética para el uso de los robots y la ética de los propios sistemas robóticos.

Veámoslo brevemente.


Temas de ética para el uso de sistemas robóticos


Comienza Müller con el campo de la relación robots-personas ('Human-Robot Interaction') que, por cierto, es justo mi área de responsabilidad dentro de la organización OdiseIA ('Observatorio del Impacto social y Ético de la Inteligencia Artificial').

En este ámbito se menciona todo lo que tiene que ver con autenticidad y engaño, en el sentido de que, dada nuestra natural tendencia hacia la antropomorfización, es fácil atribuir a los robots mayores capacidades intelectuales y emocionales de las que realmente merecen o conviene. El autor se detiene, en concreto, en el caso de los robots asistenciales y de los robots sexuales. Parece que en este campo, aparte de la responsabilidad individual, los fabricantes de robots deben proveer mecanismos que permitan a los humanos establecer expectativas realistas respecto a lo que los robots son y lo que son capaces realmente de hacer, 'sentir' y 'pensar'.

En un ámbito claramente diferenciado, apunta el autor también a los efectos de la automatización en el empleo, un tema que, por cierto, toco en mi último libro 'Robots en la sombra'. 

Un tercer tema sería el de la privacidad y el espionaje. El ámbito de la privacidad está ampliamente tratado en toda la literatura sobre ética e inteligencia artificial o incluso ética tecnológica en general y es, además, el ámbito que probablemente goza en este momento de mayor desarrollo normativo y legal. Lo diferencial en el caso de los robots, creo, no es tanto el fondo de lo que se pretende en materia de privacidad (y añadiría intimidad), sino las sofisticadas y quizá inadvertidas formas en las que un robot, especialmente un robot avanzado, puede obtener información de las personas y sus contextos o, si se prefiere, 'espiarlas' de alguna manera.

Finalmente, se habla de autonomía, aunque en este caso, el enfoque no es tanto el del respeto a la autonomía de las personas, que es lo que en ética de la inteligencia artificial se suele apuntar y que, creo que es importante en el caso de los robots. El enfoque en este caso es, sin embargo, las problemáticas éticas específicas que traen consigo los robots con alta autonomía como es el caso del vehículo autónomo o las armas autónomas (AWS, 'Autonomous Weapon Systems' o LAWS,  'Lethal Autonomous Weapon Systems').


Temas de ética de los sistemas robóticos


En el otro bloque, el autor vuelve sus ojos hacia una ética no tanto de aquellos que usan los robots sino de los propios robots.

En ese sentido, comienza mencionando la ética de las máquinas o, si se prefiere, de las máquinas éticas, en que estamos hablando de que las máquinas sean sujetos y no objetos de esa ética. Se trata de conseguir que las máquinas se comporten hacia las personas de una forma que consideremos ética.  Esto podría quedarse en la pura seguridad ('safety') pero parece que hay que ir bastante más allá.

Eso lleva a la discusión de la  la eventual agencia moral de los robots, si se les puede considerar sujetos éticos o no, algo en lo que no hay consenso, ni en su realidad, ni en la forma que debe adoptar o en que debe entenderse. Es importante, como ya hablamos en algún post, la idea de la agencia moral, no sólo desde un punto de vista meramente filosófico, sino que también puede tener sus consecuencias legales en cuanto a responsabilidad ('liability').

Y, en efecto, el autor salta en seguida a la eventual responsabilidad ('accountability' y 'liability') de los robots, algo que, insisto, es mucho más práctico que un razonamiento filosófico y tiene o puede tener, reflejo directo en normas y leyes.

La visión legal inversa, por decirlo de alguna forma, es la de los derechos de los robots, algo que, de nuevo, hunde sus raíces en la consideración filosófica, en este caso de 'paciencia' moral, pero que tiene implicaciones legales, y que, de nuevo, está en debate y donde el concepto de personalidad electrónica (en realidad también aplicable al caso de responsabilidad) no parece alcanzar suficientes consensos.


Conclusiones


Y este es el censo de temáticas éticas que nos aporta por Vincent Müller en la fuente citada. La verdad es que, en cierto sentido, se me queda corto y no aborda, creo, algunas de las problemáticas éticas más fascinantes (y más complejas) que rodean a los robots. Pero de todas formas, bueno es el intento de poner orden en una temática tan compleja como apasionante.

Seguiremos hablando de ello, sin duda.

jueves, 6 de octubre de 2022

Capacidades cognitivas nucleares y robótica

Con frecuencia, cuando en la literatura hay referencias a sistemas de  inteligencia artificial, se habla de ellos como sistemas cognitivos.

En mis clases y charlas, personalmente tiendo a usar como sinónimos sistemas de inteligencia artificial y sistemas cognitivos. Es una forma de eliminar ruido conceptual y facilitar la asimilación aunque si 'se hila fino' creo que realmente no son exactamente los mismo, creo que, especialmente en el campo de la analítica, hay sistemas que utilizan inteligencia artificial y que, sin embargo, no se adaptan bien al término cognitivo.


Cognición



Cuando hablamos de cognición realmente nos estamos refiriendo a un término surgido en el ámbito de la psicología. En su momento, encontré la siguiente definición en un diccionario, precisamente, de psicología:

Cognición es la acción o proceso de adquirir conocimiento y entendimiento a través del pensamiento, la experiencia y los sentidos.  

Claramente, se ve que estamos hablando de procesos propios de seres vivos avanzados y, en algún caso, exclusivamente humanos.   

¿Seguro? Bueno por ahí empezamos. Pero vamos a verlo.


Las capacidades cognitivas


David Vernon

Pero podemos concretar un poco más, y buscar cuáles son algunas de las capacidades cognitivas más específicas. 

En concreto, y aunque pueda parecer raro a primera vista, me encuentro una buena enumeración y descripción de esas capacidades en el libro 'Cognitive robotics' editado por  Angelo Cangelosi y Minoru Asada y, en concreto, en un capítulo firmado por David Vernon.  

Las capacidades cognitivas nucleares que ahí se mencionan, son las siguientes:


  • Percepción: Transformación de unas entradas 'en crudo' en una representación interna. Hablamos, claro, de unas entradas que representan información del exterior y que proceden típicamente de los órganos sensoriales o de sensores de algún tipo.

  • Atención: Proceso que reduce la información a procesar, seleccionando, de la información sensorial, aquella que es relevante y filtrando el resto.

  • Selección de acción: Decisión de qué es lo siguiente que debe hacer el agente cognitivo.

  • Memoria: Almacenaje de forma más o menos permanente de información. Se suelen distinguir varios tipos de memoria como memoria sensorial y de trabajo de corto plazo o memorias de largo plazo episódica, semántica, procedimental o global.

  • Aprendizaje: Capacidad para mejorar el rendimiento a lo largo del tiempo a través de la adquisición de nuevos conocimientos o habilidades.

  • Razonamiento: Capacidad para un tratamiento sistemático y lógico del conocimiento de forma que se puedan inferir conclusiones. Se suele hablar de tres formas de inferencia: inducción, deducción y abducción.

  • Metacognición: Capacidad de un sistema cognitivo para monitorizar y razonar sobre su propios procesos cognitivos internos.

  • Prospectiva: Capacidad para anticipar el futuro.


Aunque en la descripción de esas capacidades se han deslizado en algún momento términos como 'sistema cognitivo' que sugieren algo más técnico, no nos cuesta nada reconocer estas capacidades cognitivas como plenamente humanas. 

Y sin embargo, esta enumeración procede de un libro de robótica. ¿Por qué?


¿Qué tiene esto que ver con la robótica?


¿Por qué ese interés acerca de las capacidades cognitivas en el campo de la robótica?

No es difícil de entender. Es bien sabido que la inteligencia humana es fuente de inspiración para la inteligencia artificial y la robótica.

Y lo es en un doble sentido.

Lo es como información, puesto que el conocer, o intuir, cómo resuelve el cerebro humano ciertos problemas puede dar luz sobre la forma de enfocar un sistema computacional que haga lo mismo o algo parecido. Así que no es raro que los especialistas e investigadores en inteligencia artificial y robótica miren una y otra vez a la psicología y, sobre todo, la neurociencia, en busca de ideas e inspiraciones sobre cómo orientar algoritmos y arquitecturas computacionales cognitivas. Y se consiguen grandes éxitos actuando así, como lo ilustra perfectamente el auge y éxitos de las redes neuronales y el 'deep learning'.

Y lo es también como aspiración, porque en bastantes casos, aunque no en todos ni mucho menos, lo que se busca es emular, quizá superar, capacidades cognitivas humanas. Se han conseguido grandes éxitos, por ejemplo, en lo relativo a percepción, de manera especialmente notable en visión artificial o reconocimiento de voz, pero algo menos, o mucho menos, al menos eso me parece a mi, en materia, por ejemplo, de razonamiento o metacognición.

Si ahora pensamos, mirando en lo que yo creo que no es un futuro inmediato, hacia un eventual despliegue masivo de robots humanoides, estaríamos hablando, evidentemente, no de humanoides sólo en lo morfológico sino también, al menos a eso aspiramos, en lo cognitivo y relacional.

Y para eso debemos aprender mucho de psicología cognitiva y de neurociencia y trasladarlo, de la mejor manera posible (la mejor en lo técnico y en lo ético, por cierto), a los algoritmos y la robótica. 

 

martes, 4 de octubre de 2022

El clásico libro de texto sobre Inteligencia Artificial de Norvig y Russell

'Artificial Intelligence:a modern approach' es un libro clásico en la literatura sobre Inteligencia Artificial y, quizá, uno de los libros de texto a nivel universitario más usados en este campo. Un libro del que, en este caso, reseñamos su cuarta edición.

El libro, bastante enciclopédico por su extensión y amplitud de temas, se estructura en 29 capítulos agrupados en siete partes, como sigue:
  • 'ARTIFICIAL INTELLIGENCE: ' Una primera parte, digamos, fundacional, que pone las bases necesarias para entender lo que viene a continuación. Está formada por dos capítulos:

    • '1. Introduction: ' Proporciona algunas ideas básicas. Primero explica lo que es la Inteligencia Artificial (aunque sin proponer una verdadera definición) y luego comenta ocho disciplinas de las que de alguna manera bebe la Inteligencia Artificial y que incluyen la filosofía, las matemáticas, la economía, la neurociencia, la psicología, la informática, la teoría de control y la lingüística. A continuación realiza un recorrido histórico por el desarrollo de la disciplina para acabar explicando el estado de arte actual. Y finaliza con un censo de riesgos y beneficios de la Inteligencia Artificial.


    • '2. Intelligent Agents: ' Aborda un concepto que es central en gran parte del desarrollo del libro: el de agente inteligente. Define el término y la importancia del entorno y la relación con él. También dedica espacio a explicar características y entornos y finaliza con una sección bastante larga dedicada a la estructura y tipología de agentes.


  • 'PROBLEM SOLVING: ' Una parte dedicada a la resolución de problemas con base en los algoritmos de búsqueda en sus diferentes variantes. A lo largo de sus cuatro capítulos, va avanzando hacia problemas crecientemente más complejos y también más realistas.

    • '3. Solving Problems by Searching: ' Comienza poniendo las bases sobre en qué consiste un agente resolutor de problemas y cómo se formula un problema. Luego salta a los algoritmos de búsqueda (entendidos como búsqueda de una solución en un espacio de estados) explicando en qué consisten y aportando algunos primeros algoritmos. Un capítulo no sencillo pero muy importante para entender gran parte del desarrollo de los siguientes.


    • '4. Search in Complex Environments: ' A pesar de su cierta complejidad, el capítulo anterior abordaba problemas relativamente sencillos. En este capítulo, se relajan algunas hipótesis simplificadoras asumidas en los algoritmos del capítulo anterior con la idea de acercarnos más a situaciones realistas. Plantea los problemas de optimización, la búsqueda en espacios continuos, el caso de acciones no deterministas o entornos sólo parcialmente observables e incluso desconocidos.


    • '5. Constraint Satisfaction Problems: ' Continua con tipologías de problemas crecientemente complejos y realistas y, en este capítulo, deja de considerar los estados donde se busca como una caja negra para introducir los problemas sujetos a restricciones.


    • '6. Adversarial Search and Games: ' Finaliza esta parte, con el caso de problemas en que, aparte del agente que consideramos, existen otros agentes que también actúan.


  • 'KNOWLEDGE, REASONING AND PLANNING: ' Cambia un poco de tercio para abordar el caso de los agentes que realizan una representación del mundo, lo que se denomina representación del conocimiento, y emplean la lógica en su procesamiento.

    • '7. Logical Agents: ' Explica lo que son los agentes basados en conocimiento. Luego explica las ideas principales de la lógica proposicional y cómo se demuestran teoremas mediante su uso, para finalizar hablando de los agentes que usan lógica proposicional.


    • '8. First-Order Logic: ' Un salto de complejidad para reconocer que en el mundo los objetos se relacionan entre sí, lo que lleva al uso de la lógica de primer orden. Se explica la sintaxis y semántica de esa lógica de primer orden y algo de su uso.


    • '9. Inference in First-Order Logic: ' Capítulo completo dedicado a la inferencia basada en lógica de primer orden. Comienza comparando la inferencia basada en lógica proposicional frente a lógica de primer orden, y luego ya detalla pasos importantes del uso de la inferencia en lógica de primer orden: unificación, encadenamiento hacia adelante, encadenamiento hacia atrás y resolución. Un capítulo bastante complejo.


    • '10. Knowledge Representation: ' Trata, como el título indica, de la representación del conocimiento, es decir, cómo representar hechos sobre el mundo de una forma que se pueda usar posteriormente para razonar y resolver problemas. Habla de conceptos como ontologías, objetos y categorías o eventos. Luego aborda los objetos mentales y la lógica modal, cómo funcionan los sistemas que razonan con categorías así como el uso de información por defecto.


    • '11. Automated Planning: ' Finaliza esta parte con los problemas de planificación. Define en qué consisten y aporta algunos algoritmos. Luego habla del uso de heurísticas en la planificación, continua con la planificación jerárquica para saltar al caso de dominios no deterministas. Finaliza con problemas de planificación en que hay restricciones de recursos y así nos habla, por ejemplo, de horarios y recursos.


  • 'UNCERTAIN KNOWLEDGE AND REASONING: ' Saltamos a entornos aún más complejos y donde existe incertidumbre, lo que nos conduce al uso del razonamiento y programación probabilista. Esta parte se desarrolla a lo largo de los siguientes siete capítulos:

    • '12. Quantifying Uncertainty: ' Introduce las primeras ideas sobre incertidumbre y probabilidades. Comienza explicando la problemática de la incertidumbre para luego proporcionar ideas básicas sobre probabilidad, comenzando con elementos de notación, siguiendo por conceptos como independencia y probabilidad condicionada, para luego pasar al Teorema de Bayes y su uso y finalizar con los algoritmos 'Naive bayes' que se basan, de una forma muy simplificadora, pero efectiva, en el uso de ese Teorema de Bayes.


    • '13. Probabilistic Reasoning: ' habla del razonamiento probabilista para lo cual comienza tratando el tema de cómo representar conocimiento en dominios con incertidumbre. Habla largamente de las redes bayesianas y su semántica, y de cómo hacer inferencia con ellas, tanto exacta como aproximada. Finaliza con las redes causales.


    • '14. Probabilistic Reasoning Over Time: ' Donde se introduce el factor tiempo y se intenta interpretar el presente, entender el pasado y, en la medida de lo posible, predecir el futuro. Comienza hablando de tiempo e incertidumbre lo que le lleva a tratar los procesos de Markov, para luego ver cómo hacer inferencia en modelos temporales. Dedica luego una sección a los Modelos Ocultos de Markov, para pasar a continuación a los filtros de Kalman y finalizar con las redes bayesianas dinámicas.


    • '15. Making Simple Decisions: ' Comienza el tratamiento de cómo un agente puede tomar decisiones en entornos con incertidumbre. Habla del concepto de utilidad y teoría de la utilidad. Detalla bastante las funciones de utilidad, tanto monoatributo como multiatributo. También aborda el concepto del valor de la información que usa un agente para saber qué información adquirir. Finaliza con los casos en que esa función de utilidad no es bien conocida.


    • '16. Making Complex Decisions: ' Trata decisiones que se tienen que hacer en el hoy pero sabiendo que en el futuro puede ser que haya que tomar otras decisiones. Así, habla de problemas de decisión secuencial, de los procesos de decisión de Markov y de políticas y de utilidades que evolucionan en el tiempo. Y aporta varios algoritmos para esos procesos de decisión de Markov. Luego trata el problema del tragaperras ('bandit problem') en que hay que combinar una visión de explotación para obtener recompensa y una de exploración para averiguar sobre estados desconocidas y así establecer mejores políticas. Finaliza con los procesos de Markov parcialmente observables.


    • '17. Multiagent Decision Making: ' Se pasa al caso de varios agentes en el entorno. Primero se analizan las características propias de estos entornos. A continuación se revisa profundamente la teoría sobre juegos no cooperativos para luego revisar la de juegos cooperativos. Se finaliza con la situación de decisiones colectivas.


    • '18. Probabilistic Programming: ' Explora la idea de lenguajes universales para una representación del conocimiento probabilista y para la inferencia en entornos con incertidumbre. Se habla de los modelos de probabilidad relacional, incluidos los de universo abierto y se habla de programas con un modelo probabilista.


  • 'MACHINE LEARNING: ' Sección dedicada al aprendizaje en general y el machine learning en particular y que se compone de los siguientes cinco capítulos:

    • '19. Learning From Examples: ' Inicia el capítulo hablando de diferentes formas de aprendizaje. Luego habla del aprendizaje supervisado y del aprendizaje en árboles de decisión. A continuación comenta cómo seleccionar y optimizar modelos, incluye información sobre la teoria del aprendizaje y finaliza hablando de clasificación y regresión donde introduce, pro ejemplo, el algoritmo de descenso de gradiente. Habla también de modelos no paramétricos lo que sirve para comentar algoritmos como 'Nearest Neighbours' o 'Support Vector Machines'. Continua con los modelos de 'ensemble' y finaliza con unos apuntes sobre la forma de desarrollar sistemas de machine learning incluyendo reflexiones sobre aspectos como la explicabilidad.


    • '20. Knowledge in Learning: ' Plantea el problema del aprendizaje cuando ya se dispone de algo de conocimiento. Y así, tras algunos análisis sobre aprendizaje de forma general, aborda el aprendizaje basado en explicaciones y el aprendizaje basado en información sobre relevancia. Finaliza hablando de programación de lógica inductiva.


    • '21: Learning Probabilistic Models' Enfoca el problema del aprendizaje como un razonamiento con incertidumbre a partir de observaciones. Comienza hablando del aprendizaje estadístico. Luego dedica mucho espacio al aprendizaje con datos completos incuyendo un breve apunte sobre modelos generativos, para luego dedicar también abundante espacio al caso de aprendizaje con variables ocultas.


    • '22. Deep Learning: ' Tras una breve introducción comienza tratando las redes de 'feedforward' simple, de la codificación de entradas, de las capas de salida y las funciones de pérdida y de las capas ocultas. A continuación explica las redes de convolución y luego las redes recurrentes. Continua con el aprendizaje no supervisado y el 'transfer learning' y finaliza contando algunas aplicaciones como la visión artificial o el procesamiento de lenguaje natural.


    • '23. Reinforcement Learning: ' Todo un capítulo dedicado al aprendizaje por refuerzo, donde explica, aparte de los conceptos básicos, el detalle del aprendizaje por refuerzo activo y pasivo y también aspectos o formas especiales como la generalización o el aprendizaje inverso. Finaliza indicando algunas aplicaciones del aprendizaje por refuerzo como los juegos o el control de robots.


  • 'COMMUNICATING, PERCEIVING AND ACTING: ' La penúltima parte está dedicada a áreas de trabajo de la inteligencia artificial más cercanas a aplicaciones finales. Esta parte abarca cuatro capítulos:

    • '24. Natural language Processing: ' Comienza explicando algunas formas de modelar el lenguaje como el famoso 'bag of words' o los n-gramas. Explica el etiquetado de partes del discurso, la gramática y el 'parseado' y no evita mostrar algunas de las complicaciones que se producen en este procesamiento del lenguaje natural.


    • '25. Deep learning for Natural Language processing: ' En cierto modo, una continuación del capítulo anterior pero ahora centrado en el uso del deep learning. Empieza por explicar la idea de los 'word embeddings'. Luego cuenta las redes neuronales recurrentes y cómo se utilizan en el procesamiento del lenguaje. Habla de los modelos secuencia-a-secuencia y del muy importante concepto de las arquitecturas 'transformer'. A continuación aborda el mecanismo de pre-entrenamiento y finaliza dando un barrido por el estado del arte actual.


    • '26. Robotics: ' Un capítulo algo diferente dedicado a la robótica. Empieza por la definición y una explicación sobre el hardware especialmente lo relativo a sensores y movimiento. Tras detenerse un momento a explicar el tipo de problemas a que se dedican los robots, pasa a explicar la percepción en robots, la planificación y control de movimientos y el uso de aprendizaje supervisado en robótica. Aborda también la interacción entre humanos y robots y finaliza hablando primero de 'frameworks' para robótica y luego de aplicaciones.


    • '27. Computer Vision: ' En este capítulo dedicado a la visión artificial, comienza primero por explicar en qué consiste la visión y cómo se produce en el ser humano. Identifica luego una serie de características de las imágenes que van a ser relevantes en la visión artificial como bordes o texturas. Luego habla de clasificación de imágenes y de la detección de objetos. Habla también de los modelos 3D y dedica un amplio espacio final a los diferentes usos de la visión artificial.


  • 'CONCLUSIONS: ' Esta última parte, más que proporcionar unas conclusiones como tales, revisa otra serie de aspectos algunos algo menos tecnológicos de la Inteligencia Artificial. Y lo hace mediante los dos últimos capítulos:

    • '28. Philosophy, Ethics and Safety of AI: 'Una visión en cierto sentido más humana y humanista de la Inteligencia Artificial. Habla de los límites de la Inteligencia Artificial y contesta a la pregunta de si las máquinas pueden pensar realmente. Y luego dedica una larga sección a explicar diferentes problemáticas de naturaleza ético ligadas a la Inteligencia Artificial como las armas autónomas, privacidad, sesgos y justicia, trasparencia futuro del empleo, derechos de los robots y seguridad.


    • '29. The Future of AI: ' Un breve capítulo final donde se mira hacia tendencias de futuro organizadas en dos secciones: componentes de la Inteligencia Artificial y arquitecturas.
Todos los capítulos se cierran con un resumen muy amplio de lo expuesto y también con una detallada revisión de la bibliografía y trabajos relacionados que se explican con bastante generosidad.

Aparte de los capítulos nucleares ya explicados, el libro incluye dos apéndices. El primero, 'A. Mathematical backgorund' aporta fundamentos matemáticos como la complejidad, vectores y matrices y distribuciones de probabilidad. El segundo, 'B. Notes on languages and algorithms', muy breve, sólo explica lo que es la Backus-Naur Form (BNF) y cómo se hace la descripción de algoritmos mediante pseudocógido.

'Artificial Intelligence:a modern approach' es, aparte de todo un clásico entre los libros de Inteligencia Artificial en general, y libros de texto en particular, un gran libro, completo, riguroso, fuera de modas, aunque eso sí, muy largo y, a pesar de estar muy bien explicado, no sencillo dada la complejidad de los temas y la profundidad con que se abordan. Se trata de un libro, pues, no tanto para la lectura como para el estudio (de hecho, para eso está escrito), un libro en que, además, cada capítulo se apoya en buena medida en lo explicado anteriormente, por lo que es importante tener buenas bases y un esquema global del discurso que se sigue.

Una obra obligada en la biblioteca de cualquier estudiante o profesional de la Inteligencia Artificial, ya sea como material de estudio o como referencia.
 
Stuart Russell

(Fuente: Wikipedia)

Stuart Russell
Stuart Jonathan Russell (Portsmouth, Inglaterra, 1962) es un informático conocido por sus contribuciones a la inteligencia artificial. Es profesor de ciencias de la computación en la Universidad de California en Berkeley y profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco.

Stuart Russell nació en Portsmouth, Inglaterra. Recibió su título de Bachelor of Arts con honores de primera clase en Física en el Wadham College, en 1982. Posteriormente, recibió su título de doctorado en ciencias de la computación en la Universidad Stanford en 1986, por investigar en razonamiento inductivo y razonamiento por analogía, siendo supervisado por Michael Genesereth.

Tras doctorarse, se unió a la facultad de la Universidad de California en Berkeley, donde desde 1996 es profesor en ciencias de la computación. También tiene un puesto como profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco, donde investiga en fisiología computacional y en la monitorización en unidades de cuidados intensivos.

En 2016, fundó el Centro para Inteligencia Artificial Compatible con Humanos, en la Universidad de Berkeley, con los co-investigadores Pieter Abbeel, Anca Dragan, Tom Griffiths, Bart Selman, Joseph Halpern, Michael Wellman y Satinder Singh Baveja. Junto con Peter Norvig, es el autor de 'Inteligencia Artificial: Un enfoque moderno', un libro de texto usado en más de 1300 universidades en 116 países. Está en el consejo asesor científico del Future of Life Institute y en la junta asesora del Centro para el Estudio del Riesgo Existencial.

En 2017, colaboró con el Future of Life Institute en la producción de un vídeo, Slaughterbots, sobre enjambres de drones asesinando rivales políticos, y lo presentó en una reunión de las Naciones Unidas sobre el Convenio sobre Ciertas Armas Convencionales.

En 2018 participó como entrevistado en el documental Do You Trust This Computer?

Su libro más reciente, 'Human Compatible: Artificial Intelligence and the Problem of Control', fue publicado en inglés el 8 de octubre de 2019.

Puedes saber más del autor visitando su perfil en LinkedIn.

Peter Norvig

(Fuente: Wikipedia)

Peter Norvig
Peter Norvig (14 de noviembre de 1956) es un científico informático estadounidense y el director de investigación (exdirector de Calidad de búsqueda) de Google Inc.

Compañero y consejero de la American Association for Artificial Intelligence y coautor, junto a Stuart Russell, de la inteligencia artificial: un enfoque moderno, ahora el texto universidad líder en el campo. Anteriormente, fue jefe de la División de Ciencias de la Computación (ahora la División de Sistemas Inteligentes) de la NASA Ames Research Center, donde supervisó un equipo de 200 científicos realizando investigaciones de la NASA y el desarrollo de la autonomía y la robótica, ingeniería de software automatizado y análisis de datos, neuroingeniería de colaboración investigación de sistemas y simulación basado en la toma de decisiones. Anteriormente, fue Jefe Científico en Junglee, donde ayudó a desarrollar uno de los servicios de Internet primero de comparación de compras, diseñador en jefe de Harlequin Inc., y científico principal de Sun Microsystems Laboratories.

Norvig recibió una Licenciatura en Ciencias en Matemáticas Aplicadas de la Universidad Brown y un doctorado en Ciencias de la Computación de la Universidad de California, Berkeley. Ha sido profesor adjunto en la Universidad del Sur de California y miembro de la facultad de investigación en Berkeley. Cuenta con más de cincuenta publicaciones en diversas áreas de Ciencias de la Computación, concentrándose en la inteligencia artificial, procesamiento de lenguaje natural, recuperación de información y la Ingeniería del Software incluida la Inteligencia Artificial libros: Un acercamiento moderno, Paradigmas de Programación AI: Estudios de caso en Common Lisp, Verbmobil: Un sistema de Traducción de diálogo cara a cara, y sistemas inteligentes de ayuda para UNIX.

Norvig es también conocido por su "Presentación Powerpoint Gettysburg", una sátira sobre las prácticas de mala presentación utilizando famoso discurso de Gettysburg de Abraham Lincoln.

Norvig es uno de los creadores de JScheme. En 2006 fue admitido como miembro de la Association for Computing Machinery. Norvig aparece en "Facultad Académica y Asesores" de la Universidad de la Singularidad. En 2011, trabajó con Sebastián Thrun para desarrollar un curso en línea popular en Inteligencia Artificial, que contaba con más de 160.000 estudiantes matriculados. También enseña un curso en línea a través de la plataforma Udacity. Cree que una revolución docente, impulsada por herramientas informáticas, se encuentra pendiente.

Puedes saber más del autor visitando su página oficial o visitando su perfil en LinkedIn

Ficha técnica:

EDITORIAL: Pearson
AÑO: 2021 
ISBN: 978-1292401133
PAGINAS: 1.168

Artículos de este blog relacionados

lunes, 3 de octubre de 2022

¿Están los robots humanoides ya aquí?

Cualquier seguidor de este blog sabrá que me fascinan los robots, una fascinación que existe desde que era jovencito y que entonces se centraba casi exclusivamente en la ciencia ficción (los famosos relatos de Asimov), pero que en los últimos dos años ha adquirido nuevas dimensiones, con un profundo estudio de todos sus aspectos: mecánica, control, inteligencia, aplicaciones e incluso implicaciones filosóficas y éticas.

Me interesan todos los robots pero, por su riqueza científica y técnica y por sus implicaciones de todo tipo, me fascinan especialmente los robots sociales y más aún en su vertiente humanoide que además conectan con mis lecturas y fantasías juveniles.

De hecho, algunos de los últimos posts de este blog versan sobre robótica cognitiva y, seguramente, el post de hoy hubiera seguido en ese campo.

Pero la semana pasada han ocurrido un par de noticias, en forma de presentación de nuevos robots humanoides que me han animado a hacer un breve alto en el camino y en el discurso algo más técnico sobre robótica cognitiva para. simplemente, preguntarme ¿Están de verdad los robots humanoides ya aquí? ¿Estamos a punto de asistir a la proliferación de estos ingenios, a su presencia en nuestras vidas y a que, seguramente, la cambien de forma relevante?

Veamos primero tres de las novedades sobre robots humanoides de los últimos tiempos y luego hago una breve valoración personal y apresurada.


CyberOne de Xaomi


En Agosto se presentó el robot CyberOne de Xaomi que aquí vemos en conversación con Lei Jun, CEO de la compañía



La verdad es que su presentación me pasó bastante inadvertida, quizá por las fechas. Lo cierto es que he vuelto a él después de los acontecimientos de la semana pasada. 

CyberOne es un robot humanoide bípedo de 177 cm de altura y 52 Kg de peso con 21 grados de libertad y es capaz de levantar 1,5 Kg con una mano.

Cuenta con una capacidad avanzada de visión y reconstrucción en 3D, reconocimiento de lenguaje natural y voz y también capacidad para reconocer emociones humanas. Y admite aprendizaje por demostración, algo de lo que hablábamos muy recientemente en este blog.


4NE-1 de Neura Robotics


La semana pasada, y creo que de forma bastante poco reflejada en los medios pero a que a mí me llamó mucho la atención, se presentó el robot 4NE-1 de Neura Robotics, una startup alemana.



4NE-1 es un robot cognitivo, de 170 cm de altura, 60 Kg de peso y capaz de cargar hasta 20 Kg. 

Según explica David Reger, CEO y fundador de NEURA robotics, 4NE-1 es capaz de caminar por terrenos irregulares o escaleras y también coger objetos delicados.

Disfruta de una interacción multimodal con humanos que incluye la voz y el lenguaje natural en varios idiomas, así como lenguaje no verbal basado en gestos con manos y dedos.   

Aunque se ha presentado en sociedad a 4Ne-1, la lectura de la noticia hace pensar realmente en un desarrollo aún en curso, y quizá, el anuncio se haya producido para adelantarse al que ha sido la gran estrella mediática: Optimus.


... y Optimus de Tesla


Y, si, finalmente, este Viernes 1 de Octubre y en el transcurso del Tesla AI day 2022, se presentó Optimus.



Optimus, como concepto, ya había sido presentado en el evento del año anterior pero entonces, en una 'performance' que fue muy criticada, aunque se anunció la intención de Tesla de apostar por los robots humanoides, lo que salía en escena era una persona, un bailarín, disfrazado de robot.

Pero, este año, se pudo ver a un robot humanoide real, quizá todavía lejos de la visión planteada por Elon Musk, pero al menos real.  

Un robot que mide 173 cm y pesa 57 Kg y, en realidad, todavía está en pleno desarrollo. En el evento se presentó una versión que se supone es de Febrero de este año, que es de desarrollo y con un aspecto muy de 'máquina' aunque funcional en el sentido de caminar, hablar, etc. Y luego se presentó una versión mucho más estilizada pero que, claramente, no era funcional. 


¿Están los humanoides ya aquí?


Tres robots humanoides presentados en el lapso de mes y medio... Probablemente sea un signo de que algo está pasando alrededor de este tipo de ingenios.

¿Significa esto que ya están listos para un despliegue masivo? ¿Significa que los robots humanoides ya están aquí?

Es difícil de saber pero, sinceramente pienso que no, que todavía no.

He defendido en este blog que estamos en medio de una inadvertida explosión robótica y que poco a poco los robots nos irán rodeando, en muchos casos porque que otro tipo de equipos que no asimilamos a robots irán ganando en autonomía, en capacidad de interacción social (típicamente mediante voz)  y en la capacidad de detectar emociones humanas y de 'impostar' emociones propias.

Y no me desdigo. Creo que es así.

Pero los robots humanoides, los robots humanoides avanzados, me parece, juegan en otra división y quizá con otros plazos.


Barreras para el despegue de los robot humanoides


En primer lugar, y desde un punto de vista técnico, porque a pesar de los impresionantes avances conseguidos y los que estoy seguro que se conseguirán, un robot humanoide de propósito más o menos general, un robot como los de las películas, como los que en el fondo nos imaginamos,  es de una enorme sofisticación a nivel de sensores, de interpretación de la información, de planificación, de movimiento, de inteligencia... Tengo pocas dudas de que se conseguirán robots humanoides plenamente funcionales para ciertos entornos y, con el tiempo, puede que bastante multipropósito, pero también creo que va a costar un poco y que aún quedan algunos años de investigación y desarrollo, de pruebas de concepto, de errores, de fracasos y de algunos éxitos. Lo cual no quita que, para entornos o aplicaciones específicas, puedan estar cercanos o casi aquí.

Por otro lado, y pensando ya en los robots humanoides como negocio, está el asunto del precio y la producción a escala. Al tratarse de máquinas sofisticadas y aún novedosas cabe esperar precios altos. Elon Musk hablaba de 20.000 $ para su Optimus. No son inversiones menores. Cualquiera que los quiera adoptar tiene que evaluar ese precio y, sobre todo, cómo se compara con otras soluciones de automatización, quizá menos espectaculares y novedosas, pero tal vez igual o más efectivas. Y se trata de precios que, aunque no imposibles (costaría como un coche que casi todos tenemos) hacen difícil la llegada al mercado doméstico de forma generalizada. El mercado es siempre muy difícil de prever, pero el precio, al menos de momento, creo que puede ser una barrera para una auténtica generalización.

Como para cualquier tecnología, para la explosión de los humanoides en el mercado es necesario encontrar la 'killer-app' que, o en el ámbito corporativo justifique la inversión, y en el doméstico y de consumo, suponga un deseo suficiente en los consumidores como para realmente adquirir estas máquinas y pagar su coste. No tengo claro ahora mismo, quizá valga la pena pensarlo o explorarlo, cuál podría ser esa 'killer-app'.

Y, finalmente, pensando en el ámbito doméstico y de consumo, está por ver el interés y la aceptación por parte de las personas. Está por ver si este tipo de robots generan atracción o repulsión, atractivo o incluso indiferencia. Eso es quizá, lo más difícil de saber aunque siempre se puede recurrir a productos mínimos viables y otras técnicas bien conocidas en el ámbito de la innovación y el emprendimiento para entender ese mercado y modular la proposición de valor.


Perspectivas para los robots humanoides


Lo que sí me parece que este repentino interés en los robots humanoides es relevante y sintomático.

Relevante porque si varias empresas apuestan por esta tecnología, incluyendo gigantes como Xiaomi o Tesla es que, por un lado, estos actores perciben que realmente hay mercado y, además, estos actores, por otro, además, están invirtiendo mucho dinero y esfuerzos en estas tecnologías lo que debería acelerar su desarrollo. 

Si pensamos en el caso concreto de Tesla, hay que decir, por una parte que desde un punto de vista tecnológico hay muchas sinergias, muchas competencias comunes, entre el diseño de un vehículo autónomo (que, en el fondo, no deja de ser una forma de robot) y un robot humanoide. Competencias relativas a mecánica, a control, a motores, a sensórica, a inteligencia artificial. Dentro de lo que cabe, no es tan difícil utilizar personas y capacidades dedicadas al vehículo autónomo para que se dediquen a robótica humanoide y viceversa. Es decir, Tesla debería estar bien preparada, y como ella lo pueden intentar otros fabricantes de vehículos autónomos, para afrontar, desde un punto de vista de capacidades, un robot humanoide avanzado.

Y tampoco conviene olvidar, pese a la polémica que le rodea, el carácter visionario de Elon Musk y su capacidad para impulsar visiones y mercados, no sólo con sus propias empresas sino en los mercados en su conjunto. Tesla ha sido un revulsivo para el coche eléctrico u el vehículo autónomo y SpaceX, por ejemplo, está cambiando la panorámica de los viajes espaciales. ¿No puede Tesla con su Optimus dar un impulso caso definitivo al desarrollo de robots humanoides y su llegada al mercado? ¿No puede provocar que, aparte de sus propios desarrollos otros competidores o nuevos entrantes se atrevan a entrar en este mercado?

Está por ver, pero no se me antoja imposible...