viernes, 31 de diciembre de 2021

Bibliografía 2021. Un año de amigos y robots

Y por decimotercer año consecutivo (comencé en 2009), cierro el año en este blog resumiendo y valorando los libros que he leído a lo largo de los últimos doce meses y que tienen que ver con mi actividad profesional, fundamentalmente libros de tecnología y empresa.

Mis lecturas de este año (voy a listar 43 libros) han tenido, diría, tres factores dominantes, dos de los cuales justifican el subtítulo que he añadido a la mera mención a la bibliografía en el título de este post.

En primer lugar, abundan las lecturas que tienen como objeto a los robots, robots tanto hardware como software y, dentro de los hardware, tanto robots industriales como robots sociales y humanoides.

En segundo lugar han sido lecturas con visión muy transversal e integradora, donde cabe tanto la visión tecnológica, como la de negocio, pero también elementos de neurociencia, así como consideraciones éticas, filosóficas o antropológicas. Esta segunda característica hace que, a diferencia de años anteriores, aparte de las dos categorías habituales de 'management' y 'tecnología' haya añadido también la de 'ensayo: ciencia y humanidades'

Y un tercer aspecto muy curioso de este año, es la gran cantidad de libros, hasta diez, escritos por personas a las que conozco en mayor o menor medida, que aprecio y en algunos casos a los que me une una relación que sería razonable calificar de amistad. Como un subconjunto muy específico de éstos, un subconjunto unitario, se incluye mi segundo libro, 'Robots en la sombra', libro publicado en Marzo de este año y que, aparte de las evidentes lecturas y relecturas que llevé a cabo durante su elaboración, volví a leer una vez publicado igual que haría con cualquier otro libro de cualquier autor, lo cual justifica su inclusión como una referencia bibliográfica más.

Eso sí, cuando hacia el final del post haga el ranking de mejores libros, y para evitar conflictos de interés, no valoraré ni mi libro, ni los que califico como libros 'amigos' y el ranking se referirá al resto.


Mi libro: "Robots en la sombra"


Y empiezo, 'el burro delante para que no se espante', hablando de mi propio libro: 'Robots en la sombra'. Se trata de un libro que aborda los robots software, especialmente RPA ('Robotic Process Automation') y robots conversacionales (chatbots, voice bots, asistentes virtuales, etc). Y lo hace, aportando una perspectiva amplia que incluye la visión tanto conceptual y funcional (capacidades), como tecnológica y también de negocio y gestión y entrando, incluso, ya al final, en unas consideraciones sociales y éticas.

Un libro que he intentado sea pedagógico y al alcance de personas no técnicas y que a los que sí tienen ese 'background' tecnológico, les va a aportar, sobre todo, contexto y perspectiva amplia. 

Como elementos diferenciales, decir que es el primer libro, a menos que yo sepa. que trata RPA en castellano; el primero, también que yo sepa, que trata de forma conjunta los robots RPA y los conversacionales y el único que yo conozca con una visión tan integral y abarcadora.


Libros amigos


Aparte de mi propio libro, comento otros nueve escritos por personas próximas y lo hago en orden cronológico de lectura.


'Empresa sana' de Vicente de los Ríos


'Empresa sana' es el segundo libro de Vicente. Si en el primero, 'El misterio de reinventarse' nos hablaba de la transformación personal, en este caso, y con base en su propia experiencia como asesor de empresas y docente en el ámbito de la transformación digital, nos habla del cambio en las empresas basándose en una metáfora que incluye los cinco sentidos... y algo más. Todo ello con el tono cercano, directo y experiencial tan propio de Vicente.


'Lean Startup' de Susana Jurado, Javier Llamas y Andy Baraja


De los autores de 'Lean Startup' conozco personalmente, y desde ya hace muchos años, sólo a Susana Jurado quien se ha convertido en los últimos años, probablemente, en uno de los referentes en el ámbito del Lean Startup, especialmente en países de habla hispana. El libro, muy serio, recoge una visión amplia del Lean Startup muy apoyado en la experiencia real de su aplicación en Telefónica. Un libro, sin duda, de referencia, en materia de innovación y en el método Lean Startup que le da título.


'Disfruta teletrabajando' de Virginia Cabrera Nocito


En 'Disfruta teletrabajando', Virginia, a quien también conozco desde hace muchos años, aporta su particular visión del teletrabajo. Una visión que, como en todo lo que ella hace, tiene muy en cuenta a las personas y sus aspectos emocionales, mucho más allá de lo técnico u operativo. Una visión tecnoemocional, como ella misma le llama. Y todo contado con un estilo fresco, vivo, directo y orientado a la acción.


'Inteligencia artificial para los negocios' de Lasse Rouhianen


A Lasse le he conocido más recientemente, de momento de manera virtual, por compartir editorial y por trabajar en campos temáticos parecidos. El libro de Lasse, uno de los que me queda por reseñar de 2021, ofrece una visión de la inteligencia artificial que se aleja de la perspectiva técnica para centrarse en el negocio, en los casos de uso, en las aplicaciones sectoriales. Probablemente uno de los pocos libros existentes con esta orientación.


'La aventura de innovar' de Valvanera Castro


'La aventura de innovar' es una visión abarcadora del mundo de la innovación y el emprendimiento, un mundo que Valvanera, a quien conozco desde hace algo más de tres años, conoce muy de primera mano. De alguna forma es un manual de referencia que cubre todos los aspectos relevantes en relación a la innovación y el emprendimiento: macroeconómicos, operativos, metodológicos, culturales, etc. Un libro, además, al que tengo especial cariño por haber conocido desde sus primeros pasos y haber participado, incluso, en su presentación.


'A data-driven company' de Richard Benjamins


'A data-driven company' el que creo que es el primer libro de Richard Benjamins en solitario, es una visión muy de empresa, de lo que significa ser 'data-driven' y de las decisiones de implementación que, a nivel ejecutivo, es necesario adoptar, algo que Richard conoce muy bien dada su posición en Telefónica. A Richard le conozco desde hace, creo, dos años y, aunque ambos coincidimos en el tiempo en Telefónica, hemos empezado a colaborar posteriormente, en el ámbito de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), del que Richard es co-fundador y Vicepresidente.   


'Mundo Orwell' de Ángel Gómez de Ágreda


Un libro sorprendente y que hace pensar mucho, al descubrirnos claves ocultas que hay tras el mundo tecnológico e hiperconectado en que vivimos. Unas claves que, por desgracia, con frecuencia implican riesgos éticos y/o de seguridad, y con serias implicaciones geopolíticas, tema que Ángel conoce muy bien, dada su posición privilegiada en el Ministerio de Defensa. A Ángel le he conocido también dentro de las actividades de OdiseIA y fue invitado a una sesión del Foro de Humanismo Digital EOI, donde nos habló de geoestrategia en una sesión inolvidable.


'El algoritmo y yo' de Idoia Salazar y Richard Benjamins


Segundo libro escrito mano a mano por Idoia y Richard con los que colaboro muy de cerca en OdiseIA. Tras el éxito de su primer libro 'El mito del algoritmo', en este segundo intentan acercarnos la inteligencia artificial a nuestro día a día, a los caso de uso que, seamos conscientes o no de ello, se aplican en la 'vida normal' y para ello usan como metáfora y eje vertebrador los días de la semana.


'Comunicación no verbal para humanos curiosos' de María Calvo del Brío.


A María la conozco como compañera de un mismo programa sobre RPA que impartimos en EOI, en el cual ella se ocupa de preparar al final a los alumnos en materia de comunicación y presentaciones eficaces. En este libro, María nos habla del lenguaje no verbal, algo que es su pasión, pero lo hace no como podemos encontrar en otros libros que parecen, únicamente un manual de recetas y buenas prácticas. No, el libro de María es bastante más profundo y, sin rehuir consejos prácticos, bucea en las raíces biológicas y antropológicas de nuestro lenguaje no verbal.


La lista completa de lecturas


Y  tras todos los preámbulos, y el tratamiento de los libros más cercanos, paso por fin, a listar mis lecturas de 2021:


Management


Tecnología


Ensayo: ciencia y humanidades
  • Breve historia de la ética (Victoria Camps)
  • Chamanes y robots (Roger Bartra)
  • Humans and robots (Sven Nyholm)
  • Antropología (Juan Oliver Sánchez)
  • Sociología (Salvador Giner)
  • El derecho explicado para jóvenes (María de la Válgoma)
  • El sentido del derecho (Manuel Atienza)
  • AI ethics (Mark Coeckelbergh)
  • La nanotecnología (Antonio José Acosta Jiménez)
  • Mundo Orwell (Ángel Gómez de Ágreda)
  • La consciencia humana (José Enrique Campillo)
  • Memorial de los libros naufragados (Edward Wilson-Lee)
  • Automation and Utopia (John Danaher)
  • The robot will see you now (John Wyatt, Stephen Williams, et ál)
  • Feeling & Knowing (Antonio Damasio)
  • Inteligencia Artificial: Una exploración filosófica sobre el futuro de la mente y la conciencia (Susan Schneider)

Ranking


Y, tras todos esos considerandos, este es mi ranking para este año. Recuerdo que, en ese ranking, excluyo los diez primeros libros que hemos visto, mi propio libro y los nueve libros adicionales que he calificado como 'amigos'.

Apunto también que se trata en el fondo de una visión personal, una visión en que, evidentemente, cuenta la que considero calidad intrínseca del libro (su argumentación, su contenido y su estilo), pero donde también influye mi mayor o menor interés en el tema, el grado de 'resonancia' con mi pensamiento y, puede que, incluso, si su lectura me 'pilla' en mejor o peor momento, así que tómese como una mera referencia.

Con esos considerandos, estos son los tres libros que destaco este año.


(1) 'Humans and Robots' de Sven Nyholm


Como número uno, nomino a 'Humans and robots' de Sven Nyholm. Se trata de un acercamiento a la naturaleza de los robots y, sobre todo a su relación con los humanos, pero desde el punto de vista de la filosofía y la ética.

El tema me parece apasionante por sí mismo, y el desarrollo muy adecuado pero, además, destacaría de este libro que tratándose de un libro de filosofía, eso sí, una filosofía bastante moderna, trata de una forma muy adecuada y realista la tecnología... lo cual no es tan fácil de encontrar.

Aunque no he incluido este libro entre los 'amigos' lo cierto es que, aunque por medios virtuales, sí he llegado a conocer al autor por redes sociales y, sobre todo, fue invitado especial de un evento online que organizamos desde mi área en OdiseIA (área de relación robots-personas) y que titulamos 'Robots and philosohy'.

Realmente diferente y apasionante, al menos para mi gusto.


(2) 'Generative Deep Learning' de David Foster


'Generative deep learning' es un libro claramente técnico que explica, con profundidad pero también razonable claridad, los fundamentos de las redes neuronales generativas, esas capaces de escribir noticias, generar fotografías y deep fakes, quizá uno de los campos más sorprendentes y atractivos de la inteligencia artificial actual.

Un libro para mi gusto muy bien explicado pero con un nivel de complejidad que, probablemente no podamos calificar como bajo, pero que tampoco resulta abrumador.

Muy interesante.


(3) 'The invincible company' de Alex OSterwalder', Yves Pigneur et al.

El cuarto de la saga de libros capitaneados por Alex Osterwalder e Yves Pygneur, que, de una forma muy gráfica, sencilla y asertiva, exponen unos principios de gestión en este caso muy orientados a la innovación en modelos de negocio, con una visión de empresa ambidiestra con dos grandes formas de gestión: exploración y explotación.

Se nutre de muchos conceptos importados no solo de sus libros anteriores sino también de autores como Steve Blank (Modelo de desarrollo de clientes) o Eric Ries (Lean Startup) pero su estilo de explicación es muy personal, directo y práctico.

Sin duda, un 'must'.

Para 2022

¿Y para 2022?

Pues el tiempo dirá, pero estoy bastante seguro de que voy a seguir incidiendo, y mucho, en inteligencia artificial y robótica y, de nuevo, desde múltiples perspectivas, no sólo, aunque también, desde la tecnología.

Probablemente me adentre en más profundidad en cloud computing, sobre todo en las capacidades de las grandes plataformas de Amazon, Microsoft y Google, en contenedores y serverless, y en el uso de DevOps en entornos cloud.

Quiero adentrarme también en nuevos temas como computación cuántica o el traído y llevado metaverso, y profundizar más en neurociencia.

Y estaré al tanto, claro, de lo que vaya saliendo en materia de innovación,  transformación digital y automatización de procesos de negocio.

Pero nunca se sabe, pueden surgir nuevos temas.

Dentro de doce meses, los repasamos.

Artículos de este blog relacionados


jueves, 30 de diciembre de 2021

Mis #TEDTalks de 2021

Es para mi ya una tradición navideña: recoger, el día 30 de Diciembre, el listado de las TED Talk que he visionado en el año.

Un visionado que se inició en Noviembre de 2011. El objetivo entonces era, principalmente, practicar inglés de una forma amena.

Hoy en día, sin renunciar del todo a ese objetivo, principalmente lo que busco en ese visionado es, explorar nuevas ideas en temas que me interesan (pero que no necesariamente tienen que ver con mi actividad profesional directa) y, por otro lado, visualizar cómo comunican y actúan los mejores speakers (una suerte de 'benchmarking' o de aprender en cabeza ajena).

Como ya llevo vistas más de 400 TED Talks, y a pesar del inmenso y creciente repositorio de vídeos existentes, cada vez me cuesta un poco más el seleccionar las siguientes charlas que voy a ver. En este año he recurrido, en la mayoría de los casos, simplemente a revisar y seleccionar las charlas que más me interesan de entre las que ofrece la web de TED sobre todo en los apartados de 'Trending' y 'Editor's Picks' y, de vez en cuando, la búsqueda de speakers concretos (en general, autores de libros que he leído y me han interesado).

Y este año, y utilizando para ello generalmente los Sábados, al final he visto 47 charlas, de temáticas variadas pero donde predominan las que tienen que ver con inteligencia artificial, neurociencia y robótica y un poquito de ciencia básica, especialmente física.

Estas son, en concreto, las TED Talks de este año.

 


De cara al próximo año, ya tengo seleccionadas charlas para el primer trimestre, de momento con una temática bastante miscelánea. Y, Dios mediante, este Sábado 1 de Enero, veré mi primera charla de 2022. 

Pero eso lo contaré ya dentro de un año.


Artículos de este blog relacionados

miércoles, 29 de diciembre de 2021

Cerebro humano versus Deep Learning: ¿El tamaño importa?

En la literatura sobre inteligencia artificial, en algunos casos en la cara más fantasiosa de la misma, se plantea la posibilidad de conseguir la super-inteligencia, la inteligencia de propósito general.

Muchas dificultades existen en el camino para conseguirla, caso de que sea posible e incluso deseable, pero en este artículo me voy a centrar sólo en un aspecto: el tamaño.

Hablo del tamaño de una red neuronal de deep learnng, la familia de algoritmos de Inteligencia Artificial probablemente mas exitosa de los últimos años y la que más puede, quizá, hacer soñar con esa presunta super-inteligencia.

Advierto, eso sí, para los más expertos, o para los más amantes del rigor (que tienen todo mi reconocimiento y admiración), que este que nos ocupa es un post especulativo y de tipo 'bote pronto', y al que no he dedicado, debo confesarlo, mucho tiempo de investigación y documentación que pudiera aportar algún nuevo dato o mostrar algún matiz que yo no contemple en lo que sigue. Si algún lector quiere aportar algún dato adicional, alguna investigación adicional, alguna valoración adicional, estaré más que encantado de escucharla.


Biomímesis: cerebro humano versus redes neuronales artificiales


Aunque no conocemos en exceso sobre el sistema nervioso humano y sobre el cerebro, sí sabemos algunas cosas.

Y entre las que sabemos está que está formado básicamente por las células denominadas neuronas, unas células que reciben impulsos eléctricos en sus terminaciones denominadas dendritas, y que transmiten a través de los axones que 'conectan' (hacen sinapsis) con las 'siguientes' neuronas. Sabemos, pues, que las neuronas siguen patrones complejos y no bien conocidos de conexiones y, aparentemente, es a través de estas conexiones y de los impulsos que viajan por ellas que se consiguen todos los mecanismos cognitivos y de gestión del cuerpo y que se almacena de alguna forma el conocimiento.

^Por otro lado, desde hace ya muchos años, existe un conjunto amplio y creciente de algoritmos de inteligencia artificial denominados redes neuronales artificiales inspirados (sólo inspirados, no equivalentes) en ese funcionamiento. Unos algoritmos que utilizan unas pequeñas unidades de cálculo, las neuronas artificiales, que se conectan entre sí mediante unas conexiones digitales normalmente parametrizadas mediante 'pesos'. Esas neuronas artificiales se estructuran en capas y, en el caso de que dispongamos de muchas capas hablamos del 'deep learning' o redes de aprendizaje profundo.

Las redes neuronales artificiales son pues una forma de biomímesis, de imitación, del sistema nervioso humano, lo que permite establecer paralelismos y comparaciones, aunque con cierta prudencia, pues, el que exista esa inspiración y paralelismo no significa, ni de lejos, que sean equivalentes   


La pregunta: ¿el tamaño importa?


Y la pregunta que me formulo es: ¿el tamaño importa? ¿es muy relevante que dispongamos de muchas neuronas (naturales o artificiales) y de muchas conexiones (sinapsis o uniones matemáticas mediante pesos) para conseguir capacidades cognitivas avanzadas, para alcanzar la super-inteligencia?

Hay una respuesta evidente: algo sí que importa.

Si volvemos los ojos a una red neuronal artificial, por ejemplo a una red que actúe como clasificadora binaria (es decir, clasifica sus entradas en dos valores categóricos posibles), tenemos claro que, a medida que añadimos más capas y neuronas podemos obtener funciones más sofisticadas, funciones que establezcan una frontera de decisión ('decision boundary') de formas más complejas, más elaboradas, que permitan separar en clases los datos de entrada pertenecientes conjuntos de datos más complejos, más caprichosos, poco nítidos.

Y no parece atrevido extrapolar eso mismo al caso del cerebro humano. De hecho, el cerebro humano es notoriamente abundante en neuronas si lo comparamos con el de otros animales. 

¿Pero cuánto importa ese tamaño?

Veamos algunos datos.


El tamaño del cerebro humano


Aunque creo que no se conoce con exactitud, el orden de magnitud en el que se sitúa el número de neuronas del cerebro humano. según he podido ver en varias fuentes, está en torno a los cien mil millones de neuronas (100.000.000.000), es decir 1011. En cuanto al número de conexiones, parece que rondan los cien billones de conexiones (100.000.000.000.000, es decir, 1014), lo cual, por cierto, supone unas mil conexiones por neurona.

No son pocas, desde luego.

¿Y las redes neuronales artificiales?


El tamaño de GPT-3 y GPT-4


Desde luego, las redes neuronales artificiales más comunes, están lejos de esas cifras. Pero he buscado los datos de una de las redes más grandes, las redes de OpenAI dedicadas al procesamiento de lenguaje natural: GPT-3 y GPT-4.

Pues bien, no tengo, aunque debe andar 'por ahí', el dato de neuronas de GPT-3 pero, según explican sus propios creadores en el artículo 'Language models are Few-Shot Learners' el número de parámetros de esta red es de 175 billones (americanos). Si asumo (espero no equivocarme en esto) que cuando hablan de parámetros se refieren fundamentalmente a pesos y, por tanto, en grandes números, eso equivale a conexiones, estaríamos hablando de ciento setenta y cinco mil millones de conexiones, o lo que es lo mismo 1,75 * 1011, es decir,  una quinientas veces menos que el cerebro humano (algo menos aún).

He podido leer en alguna parte, que GPT-4, la sucesora de GPT-3, se sitúa ya en cien trillones americanos, o sea, cien billones europeos de parámetros, es decir, asumiendo de nuevo (espero de nuevo no equivocarme mucho) que parámetro es algo parecido en este caso a decir conexión, hablaríamos de 100.000.000.000.000 o 1014 conexiones... que curiosamente, equivale exactamente a la estimación de que dispongo de conexiones en el cerebro humano.

GPT-3 y GPT-4 son las redes más avanzadas, probablemente, para procesamiento de lenguaje natural pero, aún así, son 'solo' un modelo probabilístico (proporcionan la siguiente palabra más probable), 'ni siquiera' entienden realmente el lenguaje.

Muchísimo menos, ni de lejos, hablamos de una inteligencia artificial, de propósito general.

Si mis datos e hipótesis son ciertos, queda claro, pues, que el cerebro humano es mucho, mucho más eficiente, o potente, o como queramos decirlo, que las redes neuronales artificiales de que disponemos hoy día. Cosa que tampoco extraña, pero que me gusta ver en números.

Y, aunque admito y reconozco, de nuevo, que la documentación e investigación previa que he realizado previa a este artículo es superficial y puede faltarme algún dato relevante o mis hipótesis estar sometidas a alguna revisión, creo, espero, que permiten anticipar una respuesta aproximada a la pregunta de si el tamaño importa.


En conclusión: ¿El tamaño importa?


Y creo que sí, que el tamaño importa, que parece bastante evidente que redes con mayores números de capas, neuronas y parámetros, son y serán capaces de modelar y emular capacidades de todo tipo, incluyendo las cognitivas, más sofisticadas, como sin duda la inteligencia humana hace.

Pero también parece evidente que el tamaño por sí solo no es completamente determinante. 

Hace falta algo más.

Un algo más que, en el caso de redes neuronales artificiales se recogería en forma de nuevas arquitecturas, hiperparámetros y algoritmos de propagación y aprendizaje. Unas arquitecturas y algoritmos que, hoy día, nos permiten alcanzar logros muy notables, espectaculares diría, pero lejos aún, muy lejos, de alcanzar a un cerebro humano.

Y un algo más que en el caso del cerebro humano, no sabemos qué es, pero está claro que existe. Puede que existan patrones de conexión diferentes a los que hemos conocido hasta la fecha. Puede que su funcionamiento íntimo sea algo diferente al modelo puramente conexionista. Puede que nos falte por llegar a algún descubrimiento trascendental. Puede, incluso, pensarán algunos, que exista un algo más, quizá un 'alma' o un 'espíritu' que trascienda lo físico y sea imposible de emular en una red neuronal artificial.

Nos falta mucho por aprender.

No basta, pues, sólo con crecer en tamaño: hace falta algo más, un algo más que nos gustaría conocer. Hay que seguir investigando.


martes, 21 de diciembre de 2021

Consciencia de los robots: Antonio Damasio versus Jun Tani

En dos de los últimos artículos de este blog hemos hablado de la consciencia humana y, sobre todo, de la eventual consciencia de los robots o los algoritmos, a partir de algunas derivadas del pensamiento de Antonio Damasio.

En este post, más que una tercera derivada, lo que quisiera hacer es una breve comparativa entre el pensamiento de Damasio y el de Jun Tani, un roboticista que se ha ocupado también de la mente de los robots y del cual ya hablamos hace un tiempo en este blog. 

Quiero resumir, de manera muy concisa, el pensamiento de ambos y comparar las conclusiones.

Vamos allá


Damasio y la consciencia de los robots


Antonio Damasio

Las estudios de Antonio Damasio,  nos refieren a  la disciplina de la neurociencia, es decir, a una ciencia que trabaja fundamentalmente desde el ámbito fisiológico / biológico. Y los estudios de Damasio se centran en los seres vivos y en el ser humano, no en los robots. La referencia a los robots es realmente colateral.

Damasio reúne de forma sencilla y compacta sus ideas en su último libro, 'Feeling & Knowing: Making Minds Conscious'. Con base en esta obra, en el reciente post titulado  'Consciencia de los robots y la hipótesis de la sensorización masiva' resumíamos sus ideas.

Para Damasio, la mente y la consciencia están muy ligadas al cuerpo y a la función homeostática encargada de la regulación de la vida y de su pervivencia. Para Damasio, los seres vivos recogen impresiones del exterior mediante los órganos sensoriales (los sentidos) e impresiones de su propio cuerpo (sensaciones o sentimientos 'feelings') mediante la interacción del sistema nervioso con el resto del cuerpo.

Con base en esas percepciones, se forman imágenes, es decir, una especie de representaciones simbólicas, en el cerebro. Esas imágenes dan lugar a la mente ('mind'). Y, específicamente, la existencia de imágenes referidas al propio cuerpo y a sus sensaciones es lo que posibilita la aparición de la consciencia que se caracteriza por la individualización del ser vivo y una cierta memoria o visión histórica de sí mismo.

De alguna forma, pues, la consciencia surge a partir de impresiones del ser vivo sobre sí mismo y el contraste con las imágenes obtenidas a partir de percepciones del exterior.

Con base en esa idea, y de forma muy convergente con lo expresado por el propio Damasio, deducíamos que, siquiera como primer paso, la eventual consciencia de los robots implicaría como condición necesaria, que no suficiente, la auto-percepción y, por tanto, una sensorización interna masiva.

Quedaba abierto, eso sí (y no es poca 'apertura'), cómo procesar la información de esos sensores hasta poder llegar a dar lugar a las imágenes internas y a una consciencia.


Jun Tani y la consciencia de los robots


Jun tani
En el caso de Jun Tani, hablamos de un ingeniero experto en Inteligencia Artificial y Robótica, es decir, nuestro punto de partida es bastante diferente del caso de Damasio aunque es cierto que entre los intereses investigadores de Tani se encuentran, aparte de aspectos más tecnológicos, elementos como la neurociencia cognitiva o la psicología del desarrollo.

Su pensamiento e investigaciones se recogen en libro 'Exploring Robotic Minds: Actions, Symbols, and Consciousness as Self-Organizing Dynamic Phenomena', que ya reseñamos y comentamos en este mismo blog.

En concreto, y como intentábamos resumir en el post titulado 'Una hipótesis neuro-robótica sobre el origen de la mente'. Tani utiliza la palabra mente ('mind'), igual que Damasio pero no creo confundirme si digo que la idea de mente de Tani, incluye la consciencia  y el libre albedrío y, de hecho, habla de 'subjective mind', es decir, que incluye la individualización y una cierta introspección (subjetividad).

Pues bien, para Tani, y como explicamos en ese post, esa mente subjetiva, que implica consciencia, surge de una interacción dialéctica entre dos elementos:

  • La intencionalidad y la acción: es decir, el proceso por el cual, con base en los conocimientos pasados, el agente (el humano o el robot) decide una acción sobre el exterior, sobre el mundo físico exterior.
  • El reconocimiento, es decir, el proceso por el cual, mediante la percepción, los sentidos, el agente obtiene información de ese mundo objetivo exterior, que permite comparar las expectativas que tenía en el momento de la acción, con el resultado realmente obtenido. 

Para Tani, esa interacción conflictiva (los resultados no se suelen corresponder exactamente con la expectativa) y que el denomina causalidad circular, esa dialéctica entre intencionalidad y reconocimiento, entre las expectativas internas y la realidad externa es lo que da lugar a la mente subjetiva, que incluye consciencia y libre albedrío.

Tani acompaña sus hipótesis de varios experimentos con robots reales que parecen confirmarlas, aunque realmente creo que esos robots están todavía muy lejos de disponer de una verdadera mente subjetiva y una consciencia.  


Breve comparativa


Las visiones de ambos, Damasio y Tani, parten, como hemos comentado, de unos orígenes científicos y metodológicos muy diferentes, neurociencia frente a robótica, pero creo que ofrecen alguna característica común.

Así, por ejemplo, en ambos casos la consciencia surge de alguna forma de comparativa o interacción entre elementos que representan una visión interna o subjetiva, por un lado, y elementos que representan una visión externa objetiva. De alguna forma, ese contraste hace que surja la idea del yo como individuo separado y reconocible.

Así, en el caso de Damasio, surge de la existencia de dos tipos de imágenes, las formadas mediante la propiocepción por un lado, y las formadas mediante percepción sensorial por otro. En el caso de Tani, estaríamos hablando de las intenciones, como elemento interno, y el reconocimiento como elemento externo.

Sin embargo, en el caso de Damasio hablamos de algo si se quiere más estático, más cercano a lo que en Inteligencia Artificial se denomina la representación del conocimiento, en este caso las imágenes, mientras en el caso de Tani es más dinámico, más ligado a acciones  en una especie de cadena acción-reacción.

Ambos parecen abrir la puerta a una eventual consciencia robótica (en realidad, Tani afirma esa posibilidad) pero creo que en ambos casos están muy lejos de demostrarla (aunque Tani afirma que sus experimentos sí confirman sus hipótesis).


Conclusión... si es que es posible.


¿Se puede obtener alguna conclusión?

Bueno, nos movemos en un terreno apasionante pero elusivo, y elusivo fundamentalmente por nuestra falta de conocimiento profundo sobre el funcionamiento del cerebro y la mente humanas. así que creo que es difícil afirmar con seguridad si las visiones de Damasio y Tani son correctas y si son complementarias (yo tendería a afirmar que sí) o contradictorias.

Y lo que es más difícil es afirmar si son correctas, a pesar de que ambas están respaldadas por estudios científicos y experimentos.

Mi intuición me dice que ambas nos acercan a una comprensión del fenómeno y nos ofrecen vías para seguir avanzando, pero que todavía están lejos de 'la verdad' y muy lejos de una 'implementación' real de una consciencia robótica.

No sé si algún día se conseguirá esa consciencia robótica pero, si tal cosa sucede, cuando se eche la vista atrás, seguramente se valorarán positivamente los estudios y aportaciones de ambos, Damasio y Tani, pero creo que se constatará que ambos estaban equivocados en algunos aspectos y que, sobre todo, les faltaban ingredientes esenciales.

Pero esa es sólo mi intuición, sólo mi intuición.

En este momento no puedo estar seguro.

Ni yo, ni nadie, me parece.


viernes, 17 de diciembre de 2021

Supervivencia en un mundo hiperconectado según Ángel Gómez de Ágreda

'Mundo Orwell' es un libro que nos habla de las realidades del mundo actual y previsible futuro, un mundo dominado por el impacto de la tecnología y la hiperconexión. Y lo que hace es recorrer nuestra realidad bajo diferentes puntos de vista e identificar las realidades, problemáticas y riesgos que vienen aparejados con un enfoque que refleja a la perfección el profundo 'know-how' sobre geopolítica y geoestrategia que atesora el autor.

El libro se abre con una introducción en que enlaza el clásico '1984' de Geoge Orwell con el libro que nos ocupa.

A continuación, el cuerpo principal de la obra se estructura en ocho capítulos donde los seis centrales organizan las temáticas como si fuesen las competencias de ministerios de alguna forma de gobierno mundial.
  • '1. Vida digital' Un largo capítulo semi-introductorio que destaca el papel del mundo digital, y muy especialmente de Internet y medios sociales en nuestra vida diaria e identifica algunos fenómenos y patrones de uso que implican riesgos como la forma en que nuestro contacto con el mundo se mediatiza a través de la red, la existencia de algoritmos para atraer y mantener a los usuarios, los sesgos y el efecto burbuja ligado al filtrado de contenidos o los radicalismos. Destaca la importancia que hoy día tiene, especialmente en política, dominar el discurso que aparece en estos medios y de riesgos por las suplantaciones de identidad. Habla del debilitamiento de la capacidad intermediadora de los estados, de la superficialidad en los medios digitales, la 'intervención' en elecciones, etc. Aunque casi todo el capítulo se dedica a redes sociales, también al final habla de los chatbots y otros elementos de automatización y digitalización a nuestro alrededor, como en coches o electrodomésticos, robots, etc y los riesgos adicionales que esto introduce.

  • '2. El Ministerio de la Verdad' Se centra en los fenómenos que afectan de alguna manera a la verdad, las narrativas y la información. Así, por ejemplo, se comentan el fenómeno de las 'fake news', la viralización artificial de noticias y mensajes mediante bots o la sobrecarga de información. Se habla de la actividad de 'fact-checking' como una forma de comprobar la veracidad de mensajes e informaciones y también aporta ideas sobre la gestión de narrativas y formas de contrarrestar la información falsa, En esta labor de influir en nuestra percepción, aborda incluso las posibilidades de BCI (Brain Computer Interface), es decir, la actuación directa sobre el propio cerebro.

  • '3. El Ministerio del Ocio' Ataca los aspectos más relacionados con el trabajo, la automatización y el ocio. Comienza hablando de impactos especialmente en el empleo, de la automatización y la robotización y la eventual posibilidad de disponer de más tiempo libre. Habla brevemente de nuevos modelos organizativos y también repasa distintas tipologías de robots y, aunque quizá sea de forma algo colateral, también comenta el fenómeno ciborg. Y finaliza con dos aspectos, si se quiere, más sociales, como son la idea de la renta básica universal o el aumento de la longevidad.

  • '4. El Ministerio de la Libertad' Se adentra, quizá, en uno de los territorios más oscuros, los ataques a la libertad, el ciberdelito, etc. Así, habla de ciberseguridad y comenta muchas de las formas de ataque. Habla de los piratas informáticos y del 'blackout' (apagón) como arma. Finaliza con una especie de comparativa con el mundo feliz de Orwell.

  • '5. El Ministerio de la Paz' Habla de la guerra y de la paz, comenzando con unas consideraciones generales para luego seguir explicando elementos de guerra como los ataques en tiempo real o las armas letales autónomas. Luego entra en el riesgo que existe para muchos secretos importantes y el auge de China. Habla de la guerra en el ciberespacio y finaliza con una larga sección dedicada a cómo se pueden emplear los afectos como arma o instrumento de operaciones.

  • '6. El Ministerio de la Calidad de Vida' Se centra en las ciudades, su evolución y los fenómenos que en ellas se producen. Comienza revisando un poco su evolución histórica y nos habla de un nuevo modelo de ciudad que supere el modelo de ciudad industrial y también de las llamadas ciudades inteligentes. Comenta algún fenómeno como la videovigilancia y el reconocimiento facial y también pone énfasis en el uso de los datos que se generan en los entornos urbanos. Con ello tampoco puede evitar , de nuevo, el paralelismo orwelliano y así habla de la vigilancia del 'gran hermano'. Al final, dedica bastante espacio a analizar fenómenos como las megaciudades y elementos a considerar como el transporte urbano, nuevas formas de transporte como el hyperloop, etc

  • '7. El Ministerio de la Educación' Aunque el título del capítulo pueda despistar, de lo que habla es fundamentalmente de elementos de gobernanza, y control. Así habla de los principios éticos que nos deben regir o de la vigilancia jurídica dedicando especial espacio al gobierno de robots. Habla también de valores y finaliza con una amplia sección dedicada a la gobernanza del hiperespacio.

  • '8. Un toque de optimismo' Capítulo final que intenta dejar un sabor más dulce y una visión más optimista. Habla de la riqueza y su distribución y también compara las naturalezas humana y robótica. Habla de vigilancia y de la imagen propia y finaliza enfocando las redes sociales como unas redes de libertad.

En general, el cuerpo de cada capítulo incide sobre todo en problemáticas y riesgos, pero cada uno de ellos se cierra con lo que el autor denomina un 'Manual de supervivencia' que da consejos sobre cómo gestionar esos riesgos, como autogestionarnos nosotros mismos y cómo movernos, en fin, de forma más consciente y segura en ese nuevo mundo.

Y el libro se cierra con un epílogo, unos agradecimientos y una bibliografía.

'Mundo Orwell' es un libro muy interesante, aunque, eso si, algo inquietante, que nos abre los ojos a realidades complejas del mundo actual, y que nos descubre riesgos insospechados aunque empleando para ello un tono mesurado, objetivo y bien argumentado muy al margen de visiones fantásticas o catastrofistas que pueblan otras publicaciones.

Un gran libro que invita, sin duda, a la reflexión.
 
Ángel Gómez de Ágreda

(Fuente: Ficha en Wikipedia)

Ángel Gómez de Ágreda
Ángel Gómez de Ágreda (Salamanca, 1965) es piloto militar del Ejército del Aire (España) y escritor español especializado en análisis geopolítico y comunicación de estrategia geopolítica contemporánea.

Gómez de Ágreda es piloto militar, Diplomado de Estado Mayor y Coronel español. Empezó sus estudios en 1982 en la Academia General del Aire y se graduó como Teniente en 1987. Realizó su formación como piloto militar de transporte y paracaidista en el Ejército del Aire (España), en la Universidad del Sur de California y en la US Air Force. De 2010 a 2011 estudió en la Universidad Internacional de La Rioja un máster en Terrorismo y Anti-terrorismo, y los dos años siguientes se formó en el European Security and Defence College sobre políticas de Defensa y Seguridad. Continúa su formación para ampliar sus conocimientos multidisciplinares en paralelo con su experiencia profesional, y por ejemplo, realizó su doctorado en Ingeniería en la Universidad Politécnica de Madrid (UPM).

En su trabajo profesional, Gómez de Ágreda participó en misiones internacionales representando a España en diversos países como Afganistán, Senegal o en la antigua Yugoslavia. Fue jefe de cooperación del Mando Conjunto de Ciberdefensa en el Centro de Excelencia de Cooperación en Ciberseguridad de la OTAN. Desde 2016 es analista en el Ministerio de Defensa (España), y dentro de la Secretaría General de Política de Defensa (SEGENPOL) es Jefe del área de Análisis Geopolítico.

Gómez de Ágreda ha sido docente en varias instituciones como el Centro Superior de Estudios de la Defensa Nacional (CESEDEN) entre otras, impartiendo clases en la disciplina de Estrategia y Relaciones Internacionales. Es autor de numerosas publicaciones, más de un centenar de artículos, colaboraciones en libros. Destacar el libro de título 'Mundo Orwell. Manual de supervivencia para un mundo hiperconectado' reconocido como mejor libro de empresa en español en 2019 con el Premio Knowsquare.

Gómez de Ágreda analiza los problemas desde una comprensión de la realidad, apoyado en su formación y experiencia multidisciplinar, en sus artículos y entrevistas expresa su interés en "identificar las soluciones a los problemas desde fuera de las disciplinas", así como que «Exteriores y Defensa son los ministerios más codiciados en los ciberataques».​

Puedes saber más del autor consultando su perfil en LinkedIn siguiéndole en Twitter donde se identifica como @AngelGdeAgreda.

Ficha técnica:

miércoles, 15 de diciembre de 2021

Derivadas del pensamiento de Damasio (II): La dudosa consciencia del software y los límites del transhumanismo

Este post es, en cierto modo, la continuación del publicado hace dos días y que titulaba 'Derivadas del pensamiento de Damasio (I): Consciencia de los robots y la hipótesis de la sensorización masiva'.

En ambos artículos extraigo algunas derivadas, algunas conclusiones, quizá algo aventuradas, que me han venido a la mente al leer el libro  'Feeling & Knowing: Making Minds Conscious' de Antonio Damasio, el afamado neurocientífico de origen luso.


Recordando el origen de la consciencia según Damasio


En el primer post comentaba cómo Antonio Damasio entiende como imprescindible para el surgimiento de la consciencia en los seres vivos, su propia percepción. el sentirse a sí mismos, a sus propios cuerpos, para lo que utilizan sensores como son las neuronas con axones no mielinizados o la no separación entre el sistema sanguíneo y el nervioso que se da en la zona del cerebro dedicada a la propiocepción y que ponen a las neuronas en contacto con el resto del cuerpo. 

Las imágenes ('images') que se forman con base en esas percepción (esos sentimientos o 'feelings') en las mentes ('minds') de los seres vivos y su puesta en relación con las imágenes que se crean a partir de las percepciones del entorno obtenidas por medio de los sentidos, hacen que surja el concepto de 'yo', de individualidad e historia propia de la consciencia.


Sobre la posible consciencia de los robots


De ahí deducía en el anterior post de la serie, y como primera derivada, que si pretendemos que un robot llegue a tener consciencia, parece que eso nos llevaría a dotarlos de una sensorización interna a gran escala, una sensorización que lleve a que el robot perciba su propio 'cuerpo', que tenga información sobre él y, poniendo esa información en relación con la que obtiene por los sensores orientados a captar señales del exterior, posibilite la aparición de consciencia de forma similar a como, según Damasio, ocurre en los seres vivos conscientes.


¿Y la consciencia del software?


Si suponemos como hipótesis, quizá arriesgada pero que vamos a mantener, que es posible la consciencia de un robot, ahora nos preguntamos ¿es posible también la consciencia del software? ¿Es posible que los algoritmos o los robots software como los que describo en mi libro 'Robots en la sombra' lleguen a tener consciencia de forma similar a como podrían hacerlo los robots físicos?

A bote pronto parece que sí puesto que, al fin y al cabo, en un robot todas las facultades, digamos, 'mentales' y 'cognitivas', y la consciencia estaría ahí encuadrada, se encuentra en su software, no en su hardware.

Sin embargo, si seguimos 'a pie juntillas' el pensamiento de Damasio y el paralelismo entre lo que ocurre según él en los seres vivos y los seres artificiales, los algoritmos de inteligencia artificial y los robots, tenemos una gran objeción.

En el pensamiento de Damasio, como vimos, el cuerpo juega un papel fundamental. Son las imágenes creadas a partir de las percepciones sobre el propio cuerpo las que posibilitan el autoconcepto y la aparición de las consciencia. Según eso, y dado que los algoritmos y los robots software son meramente lógicos, no físicos, dado que no parecen tener cuerpo, no se podrían crear ese autoconcepto y por tanto no podrían ser capaces de crear una consciencia.

Se trata de una objeción fuerte pero que quizá se podría rebatir en dos sentidos, ambos que reclaman un cierto 'cuerpo' para el software.

En efecto, aunque el software lo vemos como algo inmaterial, no lo es realmente. Lo es a nivel macroscópico pero a niveles microscópicos o nanoscópicos, sí tiene un reflejo físico. Un reflejo físico que pueden ser las orientaciones mágnéticas de minúsculos dipolos en los discos duros, la situación de electrones y huecos en el silicio de los procesadores o memorias que lo soportan o los pequeños potenciales eléctricos o pequeñas intensidades eléctricas en patillas de circuitos integrados o buses de interconexión. Aunque sea a niveles microscópicos, el software sí tiene realidad física, una especie de cuerpo.

Más aún, decimos que los robots software no tienen cuerpo  pero los robots industriales o humanoides sí y en realidad no es exactamente así. Lo que ocurre es que los robots 'fisicos' tiene un' cuerpo' especializado para su labor, mientras que el software se ejecuta en ordenadores, tablets o smartphones de propósito general. Pero el que sea de propósito general, el que no tenga brazos, ojos, garras terminales, etc  no quiere decir que no sea una especie de cuerpo.  

 Si consideramos ambas cosas, hemos dotado de 'fisicidad', de 'cuerpo' a los algoritmos y los robots software y, por tanto, podríamos estar en disposición de asistir al nacimiento de consciencia siempre que esos algoritmos o esos robots software estuviesen dotados, de nuevo, de abundante sensorización que, no sólo les permitiese percibir su entorno, sino que también posibilitarse el sentirse a sí mismos.


Una posible barrera para el transhumanismo


Doy ahora un pequeño salto para tratar otra derivada que conecta con la consciencia en el software pero que ahora afecta al transhumanismo en su versión más extrema.

El transhumanismo es una corriente no sé si llamarla de pensamiento, filosófica o de opinión pero que, en cualquier caso, propone la fusión de los humanos con la tecnología. 

En sus versiones menos radicales pueden suponer, por ejemplo, la implantación de dispositivos en nuestros cuerpos que aumenten nuestras capacidades físicas o sensoriales. En visiones más ambiciosas podrían extender nuestras capacidades mentales dotándonos de más memoria, de acceso a datos o mayores capacidades intelectuales. 

Y, en lo que seguramente es su visión más extrema, podría intentar conseguir incluso la eternidad mediante la descarga de nuestras capacidades mentales y cognitivas, nuestros recuerdos, nuestra personalidad etc desde nuestro cerebro y sistema nervioso, donde parecen residir, a alguna forma avanzada de sistema computacional, quizá incluso en la nube (cloud). 

De alguna forma, se trataría de reducir nuestras capacidades mentales a alguna forma de 'software' que cargaríamos en otro sistema 'computacional' diferente del cerebro. Está claro que eso, hoy en día, no es ni lejanamente posible. Y está claro que esa idea tiene fuertes connotaciones filosóficas y éticas. Pero en este post vamos a prescindir de eso por unos momentos y sólo nos preguntamos si, con base en el pensamiento de Damasio, esa 'imagen software' de nosotros mismos podría realmente mantener la consciencia de sí misma una vez trasladada a ese sistema computacional.

Se trataría, en principio, del mismo problema que el visto más arriba con el software. Si suponemos que el software no tiene cuerpo, eso podría imposibilitar que ese 'software' en la nube pudiese mantener una consciencia al no tener cuerpo al que referirse.

Pero si suponemos que, en realidad, ese software sí que tiene un cuerpo, aunque microscópico o de propósito general, podríamos apostar por la posibilidad de consciencia.

Sin embargo, aún aceptando esa posibilidad, surge otro problema ¿Cómo afectaría a esa consciencia un cambio tan radical (y abrupto) de 'cuerpo', un cambio tan radical de su autopercepción. Siendo muy tecno-optimistas a lo mejor podemos suponer que sí tendría consciencia pero ¿sería la misma que la original, que la que tenía cuando estaba en un cuerpo humano? 

A esto, sinceramente, ya no sé qué contestar.


Conclusión


Según lo visto, y basándonos siempre en un posible paralelismo para seres artificiales de las teorías que Damasio aplica a seres vivos, parece que no es imposible que un puro software pudiese llegar a tener consciencia. Sin embargo, tanto la conclusión como la vía para conseguirlo, en el caso del software parecen menos claras que en los robots físicos.

Y lo que sí parece seriamente comprometido, aunque no del todo eliminado como posibilidad hipotética, es la visión transhumanista extrema, la fusión del hombre  y la máquina o, quizá mejor dicho, la migración de la mente humana a una máquina.

En todo caso, y para evitar confusiones, recordar que todo esto son meras hipótesis, no claramente factibles y, en cualquier caso, muy lejos, mucho, muchísimo, de lo que se puede hacer realmente hoy día. 


martes, 14 de diciembre de 2021

La nanotecnología contada por Antonio José Acosta

'La nanotecnología: el mundo de las máquinas a escala nanométrica' es un texto de divulgación científica que, con una extensión mediana tirando a corta, cuenta lo que creo son los aspectos fundamentales de la nanotecnología, desde el concepto y propiedades características, hasta sus aplicaciones e implicaciones. Un texto, en ese sentido, bastante completo aunque, evidentemente, no puede ser muy profundo.

El contenido se estructura en siete capítulos, como sigue:
  • 'Introducción:' Una breve apertura dando alguna pincelada inicial sobre nanotecnología y cerrando con el planteamiento del libro.

  • 'Evolución de la nanotecnología y relevancia en la actualidad:' Hace una revisión histórica de los principales hitos en nanotecnología, remontándose incluso a la antigüedad, enfatizando los avances en la década que va de 2005 a 2015 y finalizando con una revisión del impacto socioeconómico de estas tecnologías.

  • 'Efectos y comportamientos propios de la nanoescala:' Explica las importantísimas diferencias de propiedades que encontramos en el mundo de la nanoescala, mencionando aspectos tanto físicos, como químicos y mecánicos y que explican a un tiempo la dificultad de la nanotecnología como también sus especiales posibilidades. Finaliza hablando de biomímesis y mostrando algunos ejemplos de cómo en la naturaleza se aprovechan esas propiedades de la nanoescala en plantas y animales.

  • 'Nanoestructuras y nanomateriales:' Explica con cierto detalle la naturaleza y propiedades de estructuras como las nanopartículas, los nanohilos y tubos de carbono o las nanoláminas y cómo se agregan. Y cierra el capítulo hablando de nanomateriales.

  • 'Herramientas y métodos de fabricación:' Aborda ahora un aspecto, si se quiere más práctico, como son los métodos para fabricar soluciones nanotecnológicas. Nos habla de los llamados métodos de arriba a abajo ('top-down') de fabricación de microestructuras, como son los métodos de transferencia de patrones, los métodos sustractivos o de grabación, los métodos aditivos o de película fina ('thin-film') y también las metodologías abajo-arriba ('bottom-up') abordando de forma breve técnicas como la manipulación mediante microscopios STM y AFM, la síntesis química de nanopartículas, la síntesis mediante vapor saturado, la síntesis de aerosoles o la síntesis de fullerenos y tubos de carbono.

  • 'Aplicaciones de la nanotecnología:' un relativamente detallado repaso de aplicaciones de la nanotecnología centrado en cuatro grandes campos: salud, dispositivos y tecnologías de la información, materiales y fuentes de energía.

  • 'El futuro y los límites de la nanotecnología:' Un breve capítulo de cierre con una visión de futuro y que no elude algunos riesgos y problemáticas éticas de la nanotecnología e incluso toca algún aspecto regulatorio.
Se trata de un libro pensado, entiendo, para ser leído por cualquier tipo de público y bastante comprensible pero diría que no es completamente sencillo y que aunque, efectivamente, cualquier persona con suficiente curiosidad se puede beneficiar de su lectura, conviene tener un cierto 'background' científico, especialmente en física, para una mejor comprensión de los contenidos

Un libro interesante, que no sirve para dominar este campo pero sí como una buena introducción o como una forma de satisfacer una curiosidad científico-técnica, como ha sido mi caso.
 
Antonio José Acosta

(Fuente: Ficha de autor en RBA)

Antonio José Acosta Jiménez
Antonio José Acosta Jiménez es doctor en Física por la Universidad de Sevilla, de la que también es catedrático.

Ha desarrollado su actividad docente en la Facultad de Física de esta universidad y su actividad investigadora en el Instituto de Microelectrónica de Sevilla. Asimismo, ha participado en más de veinte proyectos de investigación y en varios contratos con empresas. Es autor de más de un centenar de publicaciones e inventor de una patente.

Puedes saber más del autor siguiéndole en Twitter donde se identifica como @acojimUS.

Ficha técnica:

EDITORIAL: RBA
AÑO: 2019 
ISBN: 978-8491875086
PAGINAS: 176

Artículos de este blog relacionados