viernes, 3 de julio de 2020

Acompañando a Antonio Damasio en su viaje neurocientífico desde las células a los sentimientos, la conciencia y la cultura humanos

'The strange order of things' es una obra en que el popular neurocientífico, Antonio Damasio intenta, creo, resumir todo su estudio y pensamiento hasta la fecha. Se trata de una especie de recorrido histórico-evolutivo en que partiendo del origen mismo de la vida, los organismos unicelulares, recorre etapas evolutivas hasta la aparición del ser humano y sus más altas creaciones como la cultura, el arte o las religiones. Y como motor de todo ello, la denominada 'homeostasis', el mecanismo por el que un ser se regula a sí mismo para mantenerse en condiciones compatibles con su propia supervivencia. Y también muy importantes en el discurso los sentimientos que son las percepciones de un ser sobre sí mismo, sobre su propio cuerpo, y su bienestar o malestar, el dolor o el placer, es decir, la percepción subjetiva de una criatura dotada de mente, acerca del estado de la vida, su vida.

El libro se estructura en trece capítulos agrupados en tres partes, como sigue:
  • PART I - ABOUT LIFE AND ITS REGULATION (HOMEOSTASIS)
    • 1. On the human condition
    • 2. In a region of unlikeliness
    • 3. Varieties of Homeostasis
    • 4. From single cells to nervous systems and minds

  • PART II - ASSEMBLING THE CULTURAL MIND
    • 5. The origin of minds
    • 6. Expanding minds
    • 7. Affect
    • 8. The construction of feelings
    • 9. Consciousness

  • PART III - THE CULTURAL MIND AT WORK
    • 10. On cultures
    • 11. Medicine, inmortality and Algorithms
    • 12. On the human condition now
    • 13. The strange order of things

Tras los tres capítulos iniciales en que explica conceptos fundamentales como el de homeostasis y donde anticipa ya un poco toda la línea argumental del libro, en el cuarto capítulo comienza esa especie de recorrido evolutivo hablando de las bacterias y su forma de superviencia. En la evolución destaca como punto importante la aparición de los sistemas nerviosos que ponen al cerebro en contacto con el resto del cuerpo, permitiendo, no sólo enviar órdenes sino también percibir y monitorizar el estado de ese cuerpo y empezar a formarse imágenes del mismo. La combinación de imágenes tanto de aspectos metabólicos como también de esqueleto y músculos, habilita la creación de mentes conscientes.

A partir de ahí, y ya en la segunda parte, se añaden otros elementos como la percepción del mundo exterior, la formación de imágenes acerca del mismo y la construcción de lenguajes. El autor da mucha importancia a los sentimientos ('feelings') que entiende como una imagen interna del estado del cuerpo, y con una función homeostática en el sentido de ayudar a su regulación intentando generar sentimientos agradables. Y aparece la conciencia que proporciona al ser que la posee una experiencia privada de sí mismo y el mundo que le rodea, siendo esa subjetividad y visión integrada características definitorias a las que se unen características como estar despierta, alerta, enfocada y orientada al tiempo y el espacio.

En la tercera parte del libro se salta a aspectos que trascienden al individuo para llegar a una dimensión más social. En esa parte del camino, se apunta de nuevo a una función homeostática en el sentido de que las culturas surgen para gestionar los afectos, los cuales se relacionan a su vez con los sentimientos y estos con el cuerpo y su estado. Y así, en último término, la cultura está al servicio de intentar alcanzar unas mejores condiciones para la vida. A partir de ahí se enlaza con el arte o con la religión. Sin embargo, la cultura humana presenta la particularidad de que, a pesar de su origen homeostático, puede llegar a ignorar su origen genético e intentar un mayor control de su propio destino. En esta parte, el libro resulta algo más especulativo, aunque sin perder su estilo ordenado, razonado y de discurso coherente.

'The strange order of things' es un libro muy interesante y con una teoría ordenada que va asentando unos conceptos sobre los anteriores, muy especialmente en los primeros capítulos del libro. No se trata una lectura demasiado compleja aunque en cierto modo esa sencillez es engañosa: cada paso, cada frase o párrafo, parece comprenderse bien pero, sin embargo, aprehender todos los conceptos y todo el hilo argumental no es tan sencillo. Por otro lado, la calidad explicativa es buena o muy buena, pero de vez en cuando me ha parecido percibir pequeños saltos en el vacío en que no he logrado entender por qué una cosa llevaba a otra. No sé si han sido limitaciones propias, si es que realmente algún paso no estaba suficientemente explicado o si es que realmente existan algunas lagunas en el razonamiento de Damasio.

En cualquier caso, un libro muy, muy interesante.

Antonio Damasio

(Fuente: Wikipedia)

António C. R. Damásio (Lisboa, 25 de febrero de 1944) es un famoso médico neurólogo de origen portugués.

Antonio Damasio
Damasio estudió medicina en la Facultad de Medicina de la Universidad de Lisboa, donde realizó también su rotación como residente y completó su doctorado. Más tarde, se trasladó a los Estados Unidos como investigador visitante durante seis meses en el Aphasia Research Center (Centro para la investigación de las afasias) en Boston. Allí, su trabajo sobre neurología del comportamiento estuvo bajo la supervisión de Norman Geschwind.

Es profesor de la cátedra David Dornsife de Psicología, Neurociencia y Neurología en la Universidad del Sur de California, donde dirige el Institute for the Neurological Study of Emotion and Creativity de los Estados Unidos (Instituto para el estudio neurológico de la emoción y de la creatividad). Antes de llegar a este puesto universitario, en 2005, Damasio fue profesor de la cátedra M.W. Van Allen y Jefe de Neurología en el Centro Médico de la Universidad de Iowa. Su carrera en Iowa se prolongó entre 1976 y 2005. Además de ser un conocido investigador en varias áreas de las neurociencias, es un autor de éxito de libros de ciencia de tipo divulgativo.

Está casado con Hanna Damasio, colega y co-autora de varios de sus libros.

Ficha técnica:

EDITORIAL: Vintage
AÑO: 2018 
ISBN: 978-0307908759
PAGINAS: 336

miércoles, 1 de julio de 2020

Los algoritmos de Inteligencia Artificial sí saben explicarse


La afirmación puede parecer sorprendente e incluso atrevida o equivocada, para todo aquel interesado en los aspectos éticos y jurídicos de la Inteligencia Artificial porque, el consenso existente es que los algoritmos de Inteligencia Artificial, muchos de ellos al menos, actúan como 'cajas negras' y no pueden explicar cómo 'toman sus decisiones'. Y el interés, que puede llegar a convertirse en ley, en que los algoritmos puedan hacer patentes sus lógicas, da lugar a una disciplina subconjunto de la Inteligencia Artificial, la 'explainable AI' que busca, precisamente, que los humanos podamos entender y, por tanto, valorar, juzgar y, en su caso, desestimar o corregir, el razonamiento seguido por el algoritmo para llegar a sus conclusiones. 

Pues hoy, tras un rato de reflexión sobre la materia, he llegado a una conclusión previa, una conclusión que desafía esa concepción de que los algoritmos de la inteligencia artificial no saben explicarse. Mi conclusión es que, bien al contrario, los algoritmos de la inteligencia artificial sí que pueden explicarse, pueden explicarse perfectamente.

Antes de que a ningún lector le de un 'infarto intelectual', hago un pequeño 'spoiler' y ya anuncio que, antes de acabar el artículo haré un matiz a esa afirmación, un matiz muy importante, que hace que, a pesar de lo que digo, tenga pleno sentido la existencia y desarrollo de esa disciplina de la 'explainable AI' y deja abierto el debate del interés o necesidad de exigir esa explicabilidad en según qué casos.

Vamos a ir poco a poco. Empecemos por entender un poco más a los algoritmos


Algoritmos de Inteligencia Artificial


Quiero lo primero advertir que la Inteligencia Artificial es una disciplina que agrupa algoritmos bastante heterogéneos. No conozco el detalle de todos los algoritmos de los que he leído o he estudiado, y seguro que existen algunos de los que ni siquiera tengo noticia. Pero lo que aquí digo creo que encaja con la mayor parte de los algoritmos populares incluidos dentro del llamado 'machine learning' y, por si acaso, además, advierto que en mi cabeza tengo sobre todo las redes neuronales y el deep learning. Si algún lector conoce algoritmos que cuestionan seriamente lo que aquí digo, estaré más que encantado de 'escuchar' comentarios y enmiendas.



Como explico en mi libro "La Carrera Digital", los algoritmos de inteligencia artificial, en general, podemos entender que se componen de dos partes o subalgoritmos: el de cálculo, el algoritmo propiamente dicho, el que calcula 'cosas' y es el que al final, reconoce imágenes, o textos, o intenciones de un hablante, o su rostro o analiza si está capacitado o no para un trabajo. Y el otro subalgoritmo, el de aprendizaje, el que hace que los algoritmos de inteligencia artificial aprendan, ya sea durante toda su vida o durante una fase acotada de entrenamiento, modificando para ello parámetros que afectan al funcionamiento del subalgoritmo de cálculo.


Determinismo



En cualquier caso, tanto un subalgoritmo como el otro son perfectamente deterministas (solo se me ocurre una familia de algoritmos, los algoritmos genéticos, donde la aleatoriedad juega un papel relevante). El que sean deterministas quiere decir que ante la misma entrada produce, siempre, la misma salida... eso sí, siempre no se haya producido entrenamiento adicional entre entrada y entrada.

Así, por ejemplo, una red neuronal típica, como un perceptrón multicapa, una vez definidos el número y tipo de capas, su conectividad, las funciones de activación de las neuronas, etc tiene como parámetros principalmente, los pesos que matizan las entradas a cada neurona. Para una combinación concreta de pesos, la salida de la red ante una entrada es absolutamente determinista. El subalgoritmo de aprendizaje, por ejemplo el famoso 'gradient descent', una vez marcadas algunos aspectos como la función de error o el optimizador a usar, es, de nuevo, plenamente determinista, y ante un valor determinado de error produce una actualización absolutamente predecible de los pesos de la red.


Cómo razona un algoritmo



Los detalles dependen del algoritmo pero, simplemente, aplica su subalgoritmo de cálculo... un algoritmo  que seguirá unas transformaciones lógico-matemáticas y que, según acabamos de mostrar, es plenamente determinista... y, además, perfectamente conocido por el desarrollador o científico de datos.

Lo voy a repetir por si no se ha apreciado suficientemente lo que he dicho: un algoritmo plenamente determinista y perfectamente conocido por su desarrollador o científico de datos.

En el caso de una red neuronal típica, las neuronas de la capa de entrada tomarán los valores de las variables de entrada, las multiplicarán por sus pesos, probablemente sumen esos productos en la llamada función de transferencia, y luego pasen esa suma por una función que podría ser, por ejemplo, la sigmoidea generando su valor de salida. Eso por casa neurona de la capa de entrada...cuyas salidas constituirán las entradas de la siguiente capa según un patrón de conexión perfectamente definido. Y este proceso se repetirá hasta pasar por todas las capas y tener los valores de salida en las neuronas de la capa de salida, lo cual será la codificación de la solución propuesta por la red. 


El algoritmo nos cuenta su vida



¿Qué cómo explica sus decisiones un algoritmo? Sencillísimo: explica las variables que tiene como entradas y las transformaciones lógico-matemáticas que ha hecho para llegar al valor de las variables de salida. Punto. Así ha razonado. Así ha 'tomado su decisión'. No hay más. De verdad.

Imaginemos que nuestra famosa red neuronal se dedica al reconocimiento de imágenes clasificándolas en tipos de animales (perro, gato, vaca,...). Y ahora esa red 'se anima' y de modo relajado nos cuenta su vida y cómo razona cuando se lo pedimos. ¿Qué nos contaría?

Algo como esto:

"Verás, mi creador, me diseño con X capas de Y neuronas. En la capa de entrada recojo H variables que entran en mis neuronas de tal y tal manera. Una vez 'me contó' que esas variables eran los niveles RGB de los píxeles de una imagen pero, si te digo la verdad, a mí eso me da un poco igual. Como puedes ver, en mi capa de salida hay Z neuronas. Mi creador me ha dicho que cada una de esas neuronas, cuando se activa, representa una clase de animal pero, sinceramente, eso tampoco me importa mucho. Y luego me diseño con el algoritmo de procesamiento de cada neurona y capa. Te cuento la forma en que calculo es....

Durante una temporada me estuvo entrenando y me decía, ¿ves esta imagen? Pues es un tal o un cual. Y yo ajustaba mis pesos según la función de error y el optimizador de que estoy constituida, para intentar mejorar y hacerlo cada vez mejor. Y, tras miles de ejemplos, mi creador me dijo que ya estaba preparada, que ya clasificaba muy bien.Y yo le creo porque lo cierto es que ya la función de error daba siempre valores irrisorios.

Asi que, ¿qué he hecho con esos datos que me has puesto como entrada? He supuesto que son una imagen, he extraído sus píxeles y sus valores RBG, se los he 'enchufado' a las neuronas de entrada y he calculado la salida, capa a capa, como te he explicado. ¿Quieres saber los pesos que he aplciado? 'No problem', son estos ¿ves? Ya está. Clarísimo, ¿verdad?"

Y una red que tomase decisiones más delicadas como qué candidato es más adecuado en un proceso de selección, o si se debe condenar o no a una persona, o qué decisión debe tomar el vehículo autónomo que controla, se 'explicaría' de forma parecida.

Y esa explicación. si el algoritmo es mudo, nos la puede dar perfectamente su desarrollador quizá con un pequeña ayuda informática para saber el valor exacto de los pesos y recordar la topología detallada de la red y sus hiperparametros.

Si, la red, como cualquier algoritmo, explica de forma clara e inapelable cómo razona.

No hay magia. No hay voluntades ocultas. No hay misterio. Sólo hay transformaciones lógico-matemáticas matizadas y optimizadas durante el aprendizaje. Y el algoritmo, o el desarrollador en su nombre nos las pueden contar, perfectamente.

Se acabó el problema ¿no?

Pues no, por desgracia no se acabó el problema. El algoritmo, en efecto, se explica, pero seguimos tendiendo un problema,

¿Cuál es el problema? La necesidad de la 'explainable AI'


El problema es que no entendemos al algoritmo. No, mejor dicho aún, el problema es que queremos que nos explique su funcionamiento de otra forma, como a nosotros nos conviene.

El algoritmo, funciona en términos lógico-matemáticos de una forma determinista y perfectamente explicable y conocida. Pero nosotros queremos una explicación que voy a llamar simbólico-lingüística.

¿Qué quiero decir con esto de simbólico-lingüística?

No sabemos realmente cómo funciona nuestro cerebro. No sabemos si su operativa interna se parece a las redes neuronales o no. Pero lo que sí sabemos, por nuestra propia experiencia, es que cuando los seres humanos explicamos nuestra forma de razonar y decidir, y cuando lo plasmamos en nuestras conversaciones, nuestros informes, nuestras leyes y nuestras sentencias no lo hacemos, desde luego, en términos matemáticos, ni siquiera de impulsos eléctricos o transformaciones químicas. Lo hacemos utilizando símbolos o imágenes de la realidad que se expresan habitualmente en forma de lenguaje y con una lógica del estilo de la lógica proposicional.

Y queremos que el algoritmo nos explique sus razonamientos en esos términos simbólico-lingüísticos. Pero el problema es que el algoritmo ha razonado de otra forma completamente distinta.

Cuando el algoritmo trabaja para reconocer imágenes como las de los animales, o los dígitos de la matrícula, o incluso para que nos haga la predicción del tiempo de mañana, nos importa bastante poco cómo razona siempre que acierte. En ese caso sólo nos importa la efectividad y, quizá, la eficiencia. Nada más.

Pero si el algoritmo lo utilizamos para aprobar o rechazar un préstamo, para seleccionar un candidato u otro para una empresa o para un ascenso, o si empleamos el algoritmo o para condenar o no a un acusado, la cosa cambia. Porque son asuntos que nos importan mucho. Y porque son cosas en que no está clara cuál es la solución acertada y si el algoritmo (ni siquiera la persona) acierta o no acierta. 

Así que, en estos casos, no nos conformamos con la efectividad y la eficiencia. 

Y queremos una explicación que entendamos, que nos convenza y que podamos valorar, evaluar y, en su caso, desestimar. Y no queremos números ni matemáticas, queremos lenguaje y lógica proposicional.

Ese es el problema.

Y el reto, el verdadero reto, es averiguar, por un lado, si existe alguna traducción posible entre el razonamiento lógico-matemático del algoritmo y el simbólico-lingüístico de las personas, lo cual no es evidente Y, en caso de que exista, esa traducción, encontrar la forma de conseguirla Y, si no existe, que puede ocurrir, pensarnos muy bien qué hacemos.

En conclusión


Así que, como anunciaba, mantengo mi tesis de que "los algoritmos de inteligencia artificial sí saben explicarse, pero añado un matiz, no como los humanos entendemos y, sobre todo, no como a los humanos nos gustaría".

lunes, 29 de junio de 2020

Un sesgo de género visto desde el algoritmo


Mucho se habla de los sesgos en relación con la inteligencia artificial y el machine learning y con la necesidad de comportamientos éticos e incluso regulaciones con ella asociados.

Sin embargo, por desgracia, creo que muchos discursos, más o menos bienintencionados (o quizá no), carecen sin embargo de una base sólida para entender lo que sucede realmente.

Muchas veces me parece que la gente poco informada, se imagina una especie de maldad intrínseca en los algoritmos, o peor, una mala intención o falta de sensibilidad social, humana o ética de los ingenieros, desarrolladores o científicos de datos.

Y esa percepción me parece dolorosa e injusta. E incluso creo que es peligrosa, porque si queremos regular un fenómeno, lo primero que hay que hacer es entenderlo para no llegar a conclusiones equivocadas y decisiones desacertadas.

Leyendo el libro 'Introduction to Natural Language Processing' de Jacob Eisenstein me he encontrado con una buena explicación del autor que nos ilustra un caso concreto de sesgo explicado, eso sí, de forma científica y bien fundamentada.

Y me parece interesante y útil contemplar el sesgo, no desde fuera, no desde la argumentación simplista, vocinglera e incluso demagógica, sino desde dentro, desde el corazón mismo de la inteligencia artificial, desde el algoritmo, en este caso de procesamiento de lenguaje natural.

Pero antes, un poquito de contexto. 


Embeddings de palabras



Las redes neuronales, algoritmos habitualmente usados en procesamiento de lenguaje natural como en casi todas las ramas de la inteligencia artificial, funcionan a nivel matemático con vectores (una matriz unidimensional) y tensores (estos últimos una especie de generalización a espacio n-dimensional de las conocidas matrices para espacios bidimensionales).

En concreto, en el caso del procesamiento de lenguaje natural (NLP, 'Natural Language Processing') las palabras se suelen representar como un vector. Hay una forma sencilla de representar palabras de un espacio acotado mediante un vector: la codificación 'one-hot' en que, a cada palabra de un vocabulario le asigna un número entero y luego, se transforma en un vector en que el elemento del vector que corresponde a ese número adopta el valor 1 y el resto cero. Por ejemplo, si queremos representar un espacio de palabras con los colores de un semáforo 'rojo, 'amarillo' y 'verde' podríamos asignarles respectivamente los valores 'rojo'=0, 'amarillo'=1 y 'verde'=2 y eso se correspondería con usar el vector [1,0,0] para 'rojo', el [0,1,0] para 'amarillo' y el [0,0,1] para 'verde'. El problema de esta forma de codificar palabras es que, a poco que crezca el vocabulario que queremos representar, los vectores son enormes y muy dispersos (compuestos fundamentalmente de ceros).

Como alternativa se utilizan los denominados 'embeddings' de palabras en que, a cada palabra le hacemos corresponder un vector pero un vector denso (con pocos ceros) de números reales y con una dimensión mucho menor que el número de palabras posibles en el vocabulario.

Hay varias formas de asignar a cada palabra el vector que le corresponde en un 'embedding' pero, se suele intentar que tenga algún valor semántico para lo que se crean espacios geométricos donde la cercanía de dos palabras implica un significado parecido.



Semántica distribucional


Una forma de conseguir esos 'word embeddings' es aplicando lo que se denomina semántica distribucional ('distributional semantics') que parte del uso de palabras en su contexto en textos normales. Palabras que se usan de forma similar en contextos similares se entiende que tienen un significado parecido.  Proceden entonces a realizar análisis de distribuciones de palabras en diferentes contextos y, mediante aplicación de estadística, deduce unos vectores de números reales que asigna a cada palabra. En ese espacio n-dimensional, la hipótesis es que una cercanía geométrica implica cercanía semántica.

No vamos a entrar en el detalle de ese cálculo pero sí decir que lo cierto es que esta estrategia ha conseguido sorprendentes éxitos captando estructuras semánticas y analogías.

En la figura se muestra uno de esos mapas, en este caso bi-dimensional, en que se observan palabras relativas a parentescos, tratamientos y títulos nobiliarios.


Sesgo de género


La verdad es que parece casi mágico. Y desde luego, es efectivo. Pero, por desgracia, este tipo de tratamiento tiene el riesgo de los sesgos.

En su libro 'Introduction to Natural Language Processing', Jacob Eisenstein nos advierte que, en efecto, esta forma de actuar, tan ingeniosa y a la vez tan científica, puede llevar a sesgos.

Nos apunta a que hay palabras, como en la figura 'king' o 'queen' que, por sí mismas llevan implícito el género y, en ese sentido, no hay problema.

Pero si ahora incluyésemos palabras relativas a profesiones y las sometiésemos al mismo tratamiento, análisis estadísticos en contextos de uso, lo que cabe esperar es que profesiones tradicionalmente femeninas como 'nurse' (enfermera) o 'recepcionist' (azafata) figurasen cerca de palabras como woman' (mujer) mientras que profesiones tradicionalmente masculinas como 'skipper' (capitán), asignándoles, por tanto, cercanía semántica e implicando, por tanto, mayor relación de un género u otro con una profesión u otra. 

Y no se trata sólo una posibilidad, el autor apunta a estudios que han comprobado que ese sesgo se produce efectivamente, cosa que no resulta sorprendente, la verdad.


Los orígenes del sesgo


En este caso se ha ejemplificado el sesgo de género, pero no hay ningún motivo para pensar que no se puedan producir cualquier otro tipo de sesgos.

Sin embargo, me interesa mucho destacar por qué se produce el sesgo.

Hay que evitar las fantasías: el algoritmo en sí mismo es neutral y, por supuesto, no tiene voluntad ni intención. Ningún algoritmo la tiene: no son seres animados, no tienen mente, no tienen voluntad. Simplemente, aplica unas reglas asépticas, en este caso a unos textos de entrada.

Tampoco el desarrollador o científico de datos tienen ningún tipo de intencionalidad perversa o defecto ético. El algoritmo es perfectamente razonable, ingenioso, científico y ha demostrado sobradamente su efectividad y utilidad.

El sesgo, pues, no está ni en el algoritmo ni la persona que lo crea. El sesgo está en los datos de entrenamiento. Pero ni siquiera por una mala selección de los datos. No es que el científico de datos o ingeniero del conocimiento o lenguaje haya seleccionado malintencionadamente los datos para generar un resultado acorde con sus ideas. 

Nada de eso.

El sesgo está en el propio empleo que hacemos las personas en nuestro uso libre del lenguaje. Más aún, diría que el sesgo está en la propia realidad, nuestra realidad, nuestro comportamiento y nuestras asunciones, una realidad que nos demuestra que cómo actuamos y cómo nos expresamos no está en concordancia con los valores a los que aspiramos. En este caso, la realidad que contamos o cómo la contamos muestra un sesgo que nos gustaría que no existiera.

El algoritmo no es el culpable. El algoritmo sólo lo ha puesto de relieve.

Es importante entenderlo. Es importante evitar fantasías y demagogias y tener en cuenta cómo se producen los sesgos, de género o de lo que fueren, a la hora de gestionarlos y de adoptar decisiones éticas o regulatorias.

viernes, 26 de junio de 2020

La realidad de las interfaces cerebro-ordenador con Claude Clément

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es una revisión del estado del arte, aunque con vista al pasado y también al futuro, de las tecnologías usadas para la interacción entre dispositivos digitales y el sistema nervioso (tanto el cerebro como la médula espinal o ciertos nervios) y los dispositivos médicos activos implantables.

Se trata de una revisión orientada al campo sobre todo asistencial, y muy influenciada por la experiencia práctica del autor. Un análisis básicamente técnico, muy pegado a tierra, sin la más mínima concesión a la fantasía o la divagación y, quizá, quizá, algo escéptico e incluso pesimista.

El libro, de mediana extensión, se estructura en diez capítulos como sigue:
  • '1. Introduction:' que establece un poco las bases de lo que sigue, proporcionando una definición del campo de estudio y anunciando ya algunos dispositivos concretos agrupados por la visión histórica de pioneros, ejecutores y soñadores (pasado, presente y futuro) que usará en los capítulos finales del libro.

  • '2. From Concept to Patient:' Un capítulo que sorprende un poco porque, aunque teniendo siempre como telón de fondo los dispositivos médicos, abandona en buena medida el aparente objetivo del libro para centrarse en prácticas de gestión que, aunque evidentemente aplicables al campo del BCI, son realmente genéricas. Habla de elementos de dirección de proyectos como el modelo en cascada o la gestión de riesgos, la planificación o los costes. Luego analiza algunos elementos de contexto, como el entorno regulatorio, factores humanos, el entono sanitario, elementos de financiación, propiedad intelectual, etc.

  • '3. Targets of Neuro-Technologies:' Un capítulo largo pero muy interesante en que va presentando las diferentes formas y sobre todo equipos y dispositivos existentes para interactuar con el cerebro, la médula espinal, nervios y órganos concretos. Acompaña el texto con fotografías y esquemas que proporcionan una idea muy realista de lo existente

  • '4. The Human Body: A Special Environment:' Habla de los dispositivos médicos activos implantables y, sobre todo, las particularidades que presenta el cuerpo humano para llevar a él tecnología. Detalla, por ejemplo, el problema de la biocompatibilidad, la bioestabilidad, la corrosión, la limpieza, la esterilidad, la hermeticidad y el control de humedad, la robustez mecánica y eléctrica, la comunicación a través de tejidos y la alimentación de los implantes.

  • '5. Below and Above-The_neck:' Un breve capítulo repasando tipos de implantes subdividiéndolos en aquellos que se realizan bajo el cuello y, sobre todo, en la cabeza, incluyendo los intracraneales.

  • '6. Pioneers:' Inicio de una revisión histórica de los dispositivos médicos activos implantables, en que se comienza con los éxitos del pasado como los marcapasos.

  • '7. Doers:' Continuación de la revisión histórica, ahora con el estado del arte actual, incluyendo un estudio de oportunidades en materia de energía, miniaturización, conectividad, implantabilidad, comunicaciones ópticas, ultrasónicas o por radiofrecuencia, etc. También se analizan aspectos de la industrialización y cadena de suministro y se finaliza con una larga de descripción de áreas actuales de estudio y tendencias.

  • '8. Dreamers:' Una visión muy breve enfocada hacia el futuro pero incluyendo tendencias disruptivas con las que el autor no parece estar muy en sintonía. Se habla, por ejemplo, del 'hombre aumentado' y de implicaciones éticas.

  • '9. Conclusiones:' Un muy breve capítulo de cierre.

  • '10. Anexes:' Un conjunto heterogéneo de anexos sobre gestión de riesgos, sobre el modelo 'NeuroVirtual' y una guía de la FDA sobre interfaces cerebro-ordenador.

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es un libro que demuestra un profundo conocimiento de la materia por parte del autor y que ilustra muy bien, con esquemas y fotografías, todo tipo de dispositivos y equipos. Se proporciona mucha información valiosa, aunque quizá en ocasiones, demasiado prolija, y se proporciona, creo, una muy buena panorámica de la tecnología y soluciones existentes.

Echo en falta, eso sí, algo más de profundización en materias como el tratamiento de las señales procedentes del sistema nervioso y las enviadas al sistema nervioso y la algoritmia que pudiese existir en los dispositivos que denomina inteligentes. Es posible que estos temas sean menos relevantes en el campo en su conjunto, pero son lo que a mi me interesan especialmente y por eso me he quedado con las ganas de algo más de material en este sentido.

El autor busca, de forma muy clara, ser realista y prudente en un campo delicado por sus implicaciones y dificultades, tanto físicas como tecnológicas e incluso éticas. Sin embargo, en ese empeño, muy loable, en el rigor y el realismo, a veces cae, en mi opinión, en el extremo contrario y casi resulta en exceso conservador y pesimista, incluso un poco autosuficiente.

Un libro, pues, para informarse y aprender, pero no para ilusionar.

Claude Clément

(Fuente: Traducción y ligera elaboración propia de la ficha de autor en el libro 'Brain Computer Interface Technologies')

Claude Clément
Trabajando actualmente como freelance, hasta Diciembre de 2019 Claude Clément fue Chief Technical Officer para el Wyss Center for Bio and Neuro Engineering en Ginebra, Suiza. Ha sido fundador, presidente y miembro del comité ejecutivo de varias startups y pequeños negocios. Tiene un Máster en Ingeniería Eléctrica y Electrónica por el Swiss Federal Institute of Technology (EPFL) en Lausana y un MBA de HEC en la Universidad de Lausana, Suiza.

Claude comenzó su carrera en Investigación y Desarrollo para la industria relojera en el Grupo Swatch como jefe del grupo de desarrollo de transductores y actuadores. Entró en el mundo de las tecnologías médicas encabezando las actividades de diversificación de Swatch en el campo de las bombas de dispensación de fármacos programables wearables. A continuación estuvo 23 años en el campo de dispositivos médicos activos implantables, como director de Ingeniería de Fabricación en Intermedics (ahora Boston Cientific), como gerente de planta de las operaciones suizas de Medtronic, y más tarde como consultor para grandes compañías, fundamentalmente en el área de los marcapasos, y para varias startups innovadoras.

A partir de 1996, puso en marcha y desarrolló la fábrica altamente automatizada de Medtronic en el área de Lago Ginebra. Esta planta es la mayor instalación en Europa para el ensamblado de dispositivos médicos activos implantables, produciendo más de 2.000 marcapasos, desfibriladores y neuro estimuladores diarios. Hasta 2014, fue CEO de MyoPowers, una compañía startup que desarrolló un implante biomédico para el tratamiento de la incontinencia severa.

Puedes saber más del autor visitando su perfil en LinkedIn.

miércoles, 24 de junio de 2020

Simples y superficiales: ¿el conocimiento era esto?


Estamos en la era del conocimiento. Eso se supone. En eso confío. Y casi, casi, eso creo. 

Pero asoman algunos nubarrones en ese horizonte intelectual.

Vivimos en una era de altísima exposición a información. El alcance de internet, la omnipresencia de los smartphone y la explosión de las redes sociales y otros medios digitales, hacen que nos veamos a expuestos a un incesante flujo de información y de estímulos.

Eso podría llevarnos, eso nos debería llevar, a un mayor conocimiento. Es cierto que la información no es directamente conocimiento. Que para que se produzca el conocimiento tienen que existir un cierto procesamiento, una cierta digestión intelectual que obtenga conclusiones, ideas y directrices de futuro de esa exposición. Pero a más información parece que deberíamos generar más conocimiento ¿no?

Bueno, no del todo. Si la digestión no es buena, tal vez la información no genere conocimiento. Y parece que, en efecto, tenemos un cierto empacho, que el atracón de información no nos sienta del todo bien.


Superficiales


Hace ya unos años, Nicholas Carr denunciaba en su libro 'Superficiales' cómo la exposición a mensajes breves pero muy numerosos, está haciendo que nuestros cerebros y todo nuestro sistema cognitivo se adapten a la nueva situación. Y esa adaptación hace que, si, seamos capaces de procesar más mensajes y con cierta simultaneidad. Pero, a cambio, parece que perdemos capacidad para la concentración, para la reflexión, para la lectura profunda, para el flujo. Superficiales. Nos volvemos superficiales. No parece que esa sea una buena noticia de cara al conocimiento...


Simples



Estoy leyendo ahora mismo el libro 'Lo imprevisible' de la periodista Marta García Aller. Bastante al principio del libro, menciona una cita de Alvin Toffler en 'El shock del futuro' quien afirmaba que la saturación de información podría activar en las personas mecanismos de defensa, unos mecanismos de defensa que supondrían que, ante la imposibilidad de digerir tanta información, las personas optasen por la simplificación, como única forma de poder comprender el mundo. Pero esa simplificación podría suponer una reafirmación de prejuicios.

Alvin Toffler hacia ese planteamiento hace ya muchos años, nada menos que en 1970, pero cuando uno observa ciertas 'conversaciones' que se producen en twitter, cuando se contemplan fenómenos de exacerbación de extremismos y populismos en ámbitos sobre todo políticos, cuando se leen tantos y tantos eslóganes, cuando se nos ofrecen imágenes de revisionismos históricos absurdos, cuando se contempla tanto comportamiento simplista, uno tiende a pensar que el aviso de Alvin Toffler era acertado y que nos estamos volviendo simples. Simples. Nos volvemos simples. Eso tampoco parece una buena noticia para el conocimiento...


La sociedad del verdadero conocimiento


Simples y superficiales. ¿De verdad el conocimiento era esto?

Quiero pensar que no. Quiero creer que, por un lado, el beneficio de tanto dato y tanta información, los frutos que podemos obtener de su conocimiento y análisis superan con mucho algunos defectos y sesgos que se pudieran producir por el camino. Y quiero pensar que la abundancia de información, debería ser un signo de transparencia y libertad y que, también en la esfera social y política, los beneficios de la abundancia de información superan con creces, a los, espero, puntuales sesgos y extremismos.

Eso espero, pero tampoco estoy seguro. Y, en cualquier caso, conseguir esos beneficios y eliminar la superficialidad y el simplismo, implica responsabilidad y esfuerzo.

A nivel individual deberíamos, por un lado, esforzarnos en acceder a información con diferentes puntos de vista, adquirir distancia y cierta neutralidad y ejercer el juicio crítico. Y deberíamos también esforzarnos en adquirir conocimiento tranquilo por otros medios, mediante las lecturas profundas u otras actividades de concentración y desarrollo intelectual.

Y a nivel social y público, deberíamos buscar mecanismos que favoreciesen la moderación, la verdad y ese mismo juicio crítico. Aunque debo confesar, que esto no tengo claro del todo cómo se debería hacer.

Simples y superficiales.

No, El conocimiento no es eso. Y la sociedad del conocimiento no puede ser eso.

Mientras pensamos o promovemos una acción social de mayor calado, esforcémonos, al menos, por la responsabilidad individual, por nuestro propio desarrollo, por nuestro propio conocimiento.

lunes, 22 de junio de 2020

Algoritmos y correlación de datos: la casi imposible privacidad


Uno de los evidentes, conocidos y ampliamente comentados riesgos del mundo digital, es la dificultad para defender la privacidad y la intimidad, para mantener al margen de la recolección, análisis y uso por parte de terceros, la información que nos concierne y que preferiríamos que no fuese conocida o, al menos, no de forma pública o no con fines comerciales, sociológicos o incluso políticos.


Los datos de carácter personal


Desde hace muchos años existe el concepto de datos de carácter personal, aquellos que más tienen que ver con nuestra identificación, con nuestras opciones en materia ideológica, religiosa, sexual etc o con nuestra situación de salud. Y desde hace muchos años existen leyes y reglamentos que protegen esos datos y que cuidan de que no se haga un mal uso de ellos.

Europa ha sido una adelantada en materia de protección de datos con el famoso GDPR, una reglamentación exigente en la línea de no permitir el uso de datos sin que la persona interesada haya dado su consentimiento explícito. 

Hay flancos, no obstante, muy difíciles de proteger incluso con esta reglamentación. Todos tenemos la experiencia de aceptar condiciones de uso sin haberlas leído. En general sabemos, o intuimos, que en esas condiciones de uso estamos admitiendo una explotación de nuestros datos seguramente por encima, o muy por encima, de lo que realmente nos gustaría que se produjese. Pero, aparte de lo engorroso que resulta la lectura del clausulado de las condiciones de uso, también sabemos que 'no pasar por el aro' de muchas de estas condiciones te deja bastante fuera del mundo digital actual, quedando al margen de algunas de las aplicaciones y servicios más populares.


La correlación


Pero hay un riesgo mucho menos conocido y que me parece de un aún mayor difícil control. Un riesgo que nace de la correlación de datos.

La correlación, dicho de forma muy sencilla, es el hecho de que dos o más fenómenos tiendan a producirse de una forma simultánea y/o evolucionar con cierto paralelismo.En algunas ocasiones, la correlación se produce por causalidad, porque un fenómeno es el causante de otro (por ejemplo, podemos pensar que calor y consumo de helados son fenómenos correlados porque el calor es la causa de que consumamos más helados para refrescarnos). Pero en otras ocasiones no existe una causalidad sino que ocurren a la vez por estar ambos causados por un tercer fenómeno o por interrelaciones complejas y a veces desconocidas pero que dan como resultado esa evolución paralela. 


Patrones de comportamiento


Por suerte o por desgracia, los seres humanos somos predecibles, mucho más predecibles de lo que pensamos y nos comportamos con arreglo a patrones bastante identificables. Existen patrones de comportamiento debidos no ya a factores constitutivos y evolutivos, sino también a efectos culturales, de educación o incluso de imitación o asimilación al grupo que hace que las personas de una misma edad, género, ideología, clase social, opción religiosa, etc, tendamos a comportarnos de formas similares.

La consecuencia que esto tiene es que, incluso sin proporcionar de forma explícita información sobre nosotros mismos, incluso sin aportar nuestra información de carácter personal, de alguna forma nuestros comportamientos 'nos delatan'. Existe correlación entre nuestras características y opciones personales y nuestros comportamientos.


Algoritmos y correlación


Y hoy en día, esos comportamientos dejan trazas, dejan información, abundante información,  en las redes sociales, en nuestros teléfonos móviles y en tantos y tantos registros de datos de los que podemos o no ser conscientes. Unos registros de datos no protegidos o sólo débilmente protegidos porque son públicos y porque no recogen información personal o al menos no información que la persona no haya aportado voluntariamente.

Y como esos comportamientos correlan con nuestra naturaleza, nuestro estado, nuestras opciones, nuestra ideología, es posible, a través de los potentes algoritmos actuales, obtener información muy precisa sobre cada uno de nosotros. Uno de los aspectos en que más destaca el machine learning es, precisamente, el reconocimiento de patrones. No en vano, mucho antes de que se acuñase el término 'machine learning', ya se hablaba e investigaba en 'pattern matching' de donde provienen muchos e los algoritmos actuales del machine learning. 


La casi imposible privacidad


Y si nuestro comportamiento está sujeto a patrones que delatan nuestras opciones personales. Y si esos comportamientos dejan trazas en forma de datos y si existen algoritmos capaces de detectar esos patrones, la protección explícita de nuestros datos personales, incluso aunque fuese efectiva, puede estar dejando un flanco muy débil.

Y no es un flanco, creo, nada fácil de proteger, Estamos en la obligación de buscar fórmulas técnicas, éticas y legales para conseguir esa protección. Pero me temo que esas fórmulas, en todo caso, protegerían de un mal uso por parte de ciudadanos, empresas y administraciones con intereses, digamos, normales. Intereses que pueden ser comerciales o incluso de curiosidad, pero siempre dentro del margen de una cierta honestidad y arreglo a la ley. ¿Pero cómo protegernos frente a 'los malos', a los realmente 'malos'? ¿Cómo poner barreras ante gobiernos autoritarios, ante terroristas o ante el crimen organizado? En esos casos, ni la ley ni, por supuesto, la ética, constituyen barreras eficaces. Y técnicamente, tampoco veo ahora mismo un medio de protección fiable.

¿Qué hacemos?

viernes, 19 de junio de 2020

Exoesqueletos y rehabilitación con Cardona, Solanki y García Cena

'Exoskeleton Robots for Rehabilitation and Healthcare Devices' es un libro breve, poco más de 100 páginas, y coral, con variedad de autores aunque en portada lo firmen tres, que aborda la temática de los exoesqueletos aunque, eso sí, desde un perspectiva bastante acotada al campo de su uso en rehabilitación.

El libros se estructura en cinco capítulos, como sigue:
  • Robotics for Rehabilitation: A State of the Art: Un breve capítulo introductorio en que define el concepto de exoesqueleto y explora su uso tanto en el caso de extremidades superiores como inferiores.

  • Sensors and Motion Systems: Un capítulo, quizá algo disperso en sus contenidos. Su tema principal son los sensores de los cuales empieza hablando de una forma muy genérica y en ámbitos diferentes de la rehabilitación, para luego abordar ya, pero sin mucho detalle, su uso en temas médicos y asistenciales. Y finaliza con un tema diferente como son los tipos de ayudas y dispositivos usados como ayuda a la movilidad: andadores, sillas de ruedas normales y eléctricas y algunas soluciones más avanzadas y más cercanas al mundo de los exo esqueletos y reflejadas en productos comerciales como el KartBot o los Hoverboards.

  • Gait Capture Systems: Se describen una serie de sistemas para obtener información acerca de la marcha de una persona.

  • Technologies for Therapy and Assistance of Lower Limb Dissabilities: Sit to Stand and Walking: Un capítulo algo más extenso donde se describen soluciones para el caso de problemas en las extremidades inferiores. Se comentan algunas causas posibles de esos problemas, la biomecánica del acto de incorporarse desde la posición de sentado o de andar, algunas terapias tradicionales y, finalmente, la terapia con robots.

  • Adaptable Robotic Platform for Gait Rehabilitation and Assitance: Design Concepts and Applications: Describe las características de la plataforma creada por el proyecto AGoRA para la ayuda y rehabilitación de la marcha.
'Exoskeleton Robots for Rehabilitation and Healthcare Devices' tiene entre sus virtudes el ser de los pocos libros existentes sobre exoesqueletos (al menos a mi me ha costado encontrar literatura al respecto). A cambio echo en falta una descripción más amplia y abarcadora de la disciplina, y quizá una mayor profundidad en los aspectos técnicos tanto mecánicos cómo sobre todo, en materia de detección y tratamiento de señales y en el control y eventual inteligencia de este tipo de equipos.

Es un comienzo, pero me haría falta bastante más material.

Manuel Cardona

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Manuel Cardona
Manuel Cardona posee un grado en Ingeniería Eléctrica por la Universidad de Sonsonate (USO), El Salvador, en 2004 y un Máster en Automatización y Robótica por la Universidad Politécnica de Madrid, España, en 2008.

Desde 2007 a 2008, y en 2011, fue Investigador Ayudante en el grupo de investigación en Robótica y Máquinas Inteligentes en la Universidad Politécnica de Madrid, España. Tiene un posgrado en Investigacion Científica y en Gestión del Innovación. Actualmente, es doctorando en automatización y robótica en la Universidad Politécnica de Madrid.

Desde 2014, ha sido profesor y director de los grupos de investigación en Robótica y Máquinas Inteligentes y en Visión Artificial, ambos en la Escuela de Ingeniería en la Universidad Don Bosco, El Salvador. Es autor de más de veinte artículos de revisión entre pares, ha editado dos libros con Springer y ha impartido más de 55 conferencias. Sus intereses en investigación incluyen robótica rehabilitadora, biomecánica, cinemática y dinámica de robots serie y paralelo, sistemas empotrados, visión artificial e inteligencia artificial y su aplicación en sistemas robóticos.

Es miembro senior del IEEE, pertenece a la Robotics and Automation Society (RAS), la Aerospace and Electronic Systems Society (AESS) y la Education Society (EdSOC). Es revisor de la revista EEE Latin America Transactions Journal, la Neural Computing and Applications, Springer Journal y la IEEE Sensors Journal.

Puedes saber más del autor visitando su página oficial.

Vijender Kumar Solanki

(Fuente: Traducción y ligera elaboración propia de la biografía en su sitio Google)

Vijender Kumar Solanki
El doctor Vijender Kumar Solanki es profesor asociado en Computer Science & Engineering en CMR Institute of Technology (Autonomous), Hyderabad, TS, India.Tiene más de 10 años de experiencia académica em seguridad de red, IoT, Big Data, Smart City e IT. Antes de su rol actual, estuvo asociado al Apeejay Institute of Technology, Greater Noida, UP, KSRCE (Autonomous) Institution, Tamilnadu, India y al Institute of Technology & Science, Ghaziabad, UP, India. Es miembro de la ACM y Senior Member del IEEE.

Ha sido autor o co-autor de más de 50 atículos de investigación publicados en diferentes revistas y actas de conferencias. Ha editado o co-editado 14 libros y actas de conferencias en el area de computación soft.

Recibión su doctorado en Computer Science and Engineering de la Anna University, Chennai, India en 2017 y un ME y MCA de la Maharishi Dayanand University, Rohtak, Haryana, India en 2007 y 2004, respectivamente, así como un grado en Science de JLN Government College, Faridabad Haryana, India en 2001.

Es el editor de las series de libros Internet of Everything (IoE) : Security and Privacy Paradigm, CRC Press; Artificial Intelligence (AI): Elementary to Advanced Practices Series, CRC Press; IT, Management & Operations Research Practices, CRC Press; Bio-Medical Engineering: Techniques and Applications con Apple Academic Press y Computational Intelligence and Management Science Paradigm, (Focus Series) CRC Press.

Es redactor jefe de International Journal of Machine Learning and Networked Collaborative Engineering e International Journal of Hyperconnectivity and the Internet of Things (IJHIoT) y también co-editor de Ingenieria Solidaria Journal, editor asociado de International Journal of Information Retrieval Research.

Puedes saber más del autor visitando su sitio en Google.

Cecilia García Cena

(Fuente: Traducción y ligera elaboración propia de la ficha de autora en el libro 'Exoskeleton robots for rehabilitation and healthcare devices')

Cecilia García Cena
La doctora Cena es Profesora ayudante sobre Automatización y Robótica en la Universidad Politécnica de Madrid e investigadora en el Centro para Automatización y Robótica. Es profesora visitante en las Ecoles Universitaries Gimbernat en Cantabria y en Beihang University en Pekín. Entre 2004 y 2006 fue también profesora vistante en la Universidad Carlos III de Madrid.

Dirige las aplicaciones médicas robóticas en el Grupo de Investigación en Robots y Máquinas Inteligentes. Ha sido directora de proyectos nacionales de investigación y desarrollo y es investigadora en proyectos europeos.

Desde 2016 es evaluadora experta para temas de robótica en la Comisión Europea. Desde 2015 está fuertemente involucrada en el desarrollo de dispositivos médicos con aplicaciones clínicas y sociales.

Es autora de más de 60 publicaciones científicas internacionales. Tiene cuatro patentes, dos de ellas registradas internacionalmente.

Puedes saber más del autor visitando su perfil en LinkedIn.

Ficha técnica:

EDITORIAL: Springer
AÑO: 2020 
ISBN: 978-9811547317
PAGINAS: 104

Artículos de este blog relacionados

miércoles, 17 de junio de 2020

Algunas preguntas éticas en relación con las interfaces cerebro-ordenador


Estamos cada vez más en posesión de una serie de tecnologías que desafían nuestra concepción del mundo y, sobre todo, nuestra concepción de nosotros mismos como como seres humanos. Una serie de tecnologías que, por tanto, exigen una reflexión sobre aquello que deseamos y aquello que no, sobre aquello que consideramos admisible y aquello que no.

Solemos pensar,  en esa línea, por ejemplo, en la inteligencia artificial o en la edición genómica, dos de la tecnologías que incluso se entienden como integrantes del concepto de indutria 4.0.

Pero puede que la lista no acabe aquí. Mucho menos conocidas, seguramente aún con mucho recorrido de progreso, existen las tecnologías de interfaz cerebro-ordenador (BCI, 'Brain Computer Interface'), aquellas que consiguen interconectar nuestro sistema nervioso, incluyendo al cerebro, con sistemas digitales.

Hoy en día esa tecnología se usa. ante todo, en tareas de rehabilitación de pacientes con limitaciones físicas congénitas o debidas a accidentes. Quizá su desarrollo, aunque admirable, no ha llegado todavía plenamente a la 'zona de peligro'. En parte por las dificultades intrínsecas y por nuestro todavía escaso conocimiento real del cerebro, y en otra parte, por la vigilancia regulatoria a que están sometidas este tipo de tecnologías sanitarias. 

Sin embargo, no parece fuera de nuestro alcance una detección más detallada de las ondas y señales que emite el cerebro y su análisis, probablemente mediante técnicas del campo de la inteligencia artificial. Quizá algo más lejana parece una estimulación 'fina', certera y precisa, del cerebro...pero no me atrevería a calificar de imposibilidad ese objetivo.

Una interacción profunda y precisa de máquinas digitales con el cerebro abre unas posibilidades inmensas, unas maravisoolas y otras aterradoras, un mundo realmente nuevo del que quizá no todo sea deseable.

En su libro 'Brain-Computer Interface technologies', Claude Clément se hace algunas preguntas, para las que reconoce no tener respuesta y que exceden lo tecnológico para situarse en el campo social y sobre todo ético. Estas son sus preguntas:

  • ¿Estamos yendo demasiado lejos?
  • ¿Hemos ido ya demasiado lejos?
  • ¿Tenemos derecho a interconectar directamente con el cerebro?
  • ¿Vamos a perder el control?
  • ¿Tomará la inteligencia artificial el lugar de nuestro pensamiento natural?
  • ¿Vamos a perder la privacidad?
  • ¿Es el Big Data una herramienta para la mejora o para nuestro control?

Una tecnología BCI plenamente desarrollada sería el sueño del transhumanismo más extremo y la puerta abierta a fantasías como unir nuestra mente a la 'nube', a una mente colectiva e, incluso, a una supuesta eternidad de la mente.

Estamos, creo, tecnológicamente muy lejos de que esas fantasías sean posibles, supuesto que alguna vez sean alcanzables,  pero, por si alguna vez se hacen realidad, a lo mejor es el momento, en efecto, de irnos haciendo ya algunas preguntas...

lunes, 15 de junio de 2020

El misterio del cerebro y la metáfora computacional


El funcionamiento del sistema nervioso en general, y del cerebro muy en particular, es uno de los más grandes y apasionantes misterios a que se enfrenta la ciencia... y nuestra curiosidad.

Mucho hemos avanzado en ese conocimiento desde los trabajos de nuestro Nobel Santiago Ramón y Cajal. En los últimos años, por ejemplo, se ha avanzado, mediante el uso de técnicas como la fMRI en hacer una suerte de 'mapa' del cerebro, identificando con cierta nitidez que áreas del mismo intervienen en diferentes funciones o son excitadas ante ciertos estímulos. Pero aún así, estamos lejos de comprender realmente la forma en que se producen los pensamientos y no digamos nada las emociones.

Desde hace décadas, desde la generalización de los computadores digitales, ha existido una especie de inspiración mutua entre el campo de la neurociencia y de la computación. Una inspiración o una metáfora que hace que, por un lado, lo que conocemos sobre el cerebro y el sistema nervioso inspire algunos modelos computaciones, siendo el caso más típico el las redes neuronales artificiales, situadas en el corazón de muchos de los avances más espectaculares que vivimos hoy día en el campo de la Inteligencia Artificial. Y también existe, quizá en menor medida, la idea de aplicar la metáfora en la dirección contraria una cierta tentación de intentar imaginar el funcionamiento del cerebro como si de una especie de computador se tratase.

En el caso de la inspiración de modelos computacionales, la metáfora ha sido útil y fértil, ya que gracias a ella han surgido las redes neuronales y el deep learning. En el sentido contrario, aplicación de la metáfora computacional al cerebro, no tengo claro que se haya conseguido ningún resultado práctico.

Creo que, en el fondo, no sabemos lo suficiente del cerebro como para evaluar con exactitud hasta donde llega la metáfora y hasta dónde existe un paralelismo real que permita usos científicos o ingenieriles de ese paralelismo. Pero, precisamente por ese desconocimiento, lo más prudente es pensar que la metáfora es solo eso, una metáfora, y no esperar de ella más que inspiración o un modelo descriptivo que pueda ser útil en algún momento a efectos de divulgación o entendimiento. 

He finalizado recientemente la lectura del libro 'Brain-Computer Interface Technologies' de Claude Clément y este autor se muestra muy renuente, casi escéptico y combativo, frente a la más mínima fantasía o especulación en materia tan delicada como es la interacción máquina-cerebro, que constituye el tema de su libro. Y así, bastante al principio, ya nos previene contra la metáfora aplicada en la dirección computación->cerebro y nos dice:

We realize now that we should not compare the brain to a computer


Y remata, para el específico caso de las neuronas, diciendo:

Neurons do not function as any electronic component.


En el caso de esta última frase, no menciona específicamente las redes neuronales artificiales, pero resulta difícil no imaginar que es en ellas en lo que está pensando al hacer esta afirmación. Y lo cierto es que, además, las redes neuronales artificiales, aunque se inspiraron en su origen en el funcionamiento de las neuronas y el sistema nervioso, y aunque por ejemplo el perceptrón muestra bastante clara esa inspiración, los avances del deep learning actual se basan más en los avances matemáticos y en el criterio de efectividad para resolver problemas que en una imitación del cerebro. No parece, por ejemplo, al menos hasta donde a mi se me alcanza, que una red de convolución, tan usada en la visión artificial, esté implementando un mecanismo observado en las neuronas reales ni en el funcionamiento de la retina.

Sea como fuere, la enseñanza es que, aunque la metáfora y la inspiración mutuas pueden ser interesantes y en algún caso fértiles, debemos tener claro cuando estamos hablando de una metáfora o inspiración y cuándo de un modelo real y, actualmente, parece que estamos más cerca del campo de la metáfora que del modelado.

Para estar más seguros, deberíamos avanzar más en la resolución del gran misterio: el funcionamiento del cerebro. Pero ese es un misterio que parece que se nos va a resistir bastante tiempo. Aunque él se refiere específicamente a la interacción cerebro-computador, la siguiente frase del mismo autor,  Claude Clément, nos puede servir como cierre con llamada a la prudencia:

We should also realize that we should remain modest in our conquest of the brain


En efecto, nos queda mucho por aprender sobre el cerebro y su funcionamiento. Y parece que espera un largo trayecto antes de llegar a ese conocimiento. Mientras tanto, disfrutemos del viaje y de la metáfora.

viernes, 12 de junio de 2020

El futuro acelerado y convergente de Peter Diamandis y Steven Kotler

'The future is faster than you think' es la culminación de una trilogía compuesta por los anteriores libros 'Abundance' y 'Bold', una visión del futuro optimista, tecnológica e innovadora que apuesta por un mundo de abundancia de recursos y posibilidades. La tesis fundamental de este libro es que la convergencia de una serie de tecnologías, ya de por sí transformadoras y exponenciales a nivel individual, abre un futuro brillante de progreso, innovación y disrupción.

El libro se compone de catorce capítulos estructurados en tres partes, como sigue:
  • 'Part One: The Power of Convergence' Es la parte más orientada a explicar las tesis de los autores, identificando las tecnologías exponenciales y los factores de convergencia y aceleración.

    • 'Chapter One: Convergence' Un capítulo donde se afirman ya las principales tesis del libro: la existencia de tecnologías exponenciales y la importancia de la convergencia de esas tecnologías. Como ilustración habla de diferentes e innovadoras opciones para el transporte como los coches voladores, los vehículos autónomos o Hyperloop e incluso una solución radical como son los avatares.

    • 'Chapter Two: The Jump to Lightspeed: Exponential Technologies Part I' Una primera panorámica de tecnologías exponenciales que incluye la computación cuántica, la Inteligencia Artificial, nuevas redes como 5G, los sensores y la robótica.

    • 'Chapter Three: The Turbo-Boost: Exponential Technologies Part II' Segundo bloque de tecnologías exponenciales que, en esta ocasión incluye la realidad virtual y aumentada, la impresión 3D, blockchain, ciencia de los materiales y nanotecnología y biotecnología.

    • 'Chapter Four: The Acceleration of Acceleration' Capítulo en que se analizan las fuerzas que provocan la aceleración. Se identifican tres: el incremento de la capacidad computacional, la convergencia de tecnologías y una tercera que en realidad es un conjunto de siete fuerzas que son las que se desarrollan específicamente en este capítulo y que son, en concreto: ahorro de tiempo, disponibilidad de capital, desmonetización, más genios, abundancia de comunicaciones, nuevos modelos de negocio y vidas más largas.

  • 'Part Two: The Rebirth of Everything' Una revisión de como esa convergencia de tecnologías exponenciales está transformando diferentes sectores y áreas de actividad 

    • 'Chapter Five: The Future of Shopping' Comienza el análisis sectorial con el mundo del retail y presenta algunas innovaciones como las plataformas, la inteligencia artificial, la eliminación de las líneas de caja, la introducción de elementos robóticos o la impresión 3D y concluye que la última esperanza de la tienda es convertirse en un centro de experiencias convergente que va más allá de la mera compra.

    • 'Chapter Six: The Future of Advertising' Un capítulo algo más breve en que habla de búsquedas para luego introducir la realidad aumentada y la hiper-personalización y mezclando todo ello predice la posible desaparición de la publicidad tal y como la entendemos.

    • 'Chapter Seven: The Future of Entertainment' Nos habla de un ocio digital, empezando por el caso Netflix pero avanzando hacia escenarios donde cualquier persona puede crear contenidos, hacia la adopción de roles activos, la introducción de la realidad virtual y los hologramas y acabando con temas como la computación afectiva.

    • 'Chapter Eight: The Future of Education' Un capíitulo corto para entrever cambios en la educación y que toca temas como la auto-educación o el uso de realidad virtual / aumentada.

    • 'Chapter Nine: The Future of Healthcare' Cambios en el cuidado de la salud done habla de temas como el uso de impresión 3D, la edición genómica, los autodiagnósticos, la robotización de la cirugía, o la medicina celular.

    • 'Chapter Ten: The Future of Longevity' Más que un sector, en este caso el tema es la posibilidad de evitar el envejecimiento y alargar la vida. Primero identifica nueve causas por las que envejecemos y luego apunta a algunos avances para evitar ese envejecimiento, por ejemplo, en materia de farmacia.

    • 'Chapter Eleven: The Future of Insurance, Finance, and Real Estate' en que se trata los sectores de banca, seguros e inmobiliario y se apuntan ideas como el 'crowdassurance', el empleo de blockchain, inteligencia artificial o realidad virtual.

    • 'Chapter Twelve: The Future of Food' Pone énfasis en la ineficiencia que supone la generación actual de alimentos y en las posibilidades de mejorar radicalmente esa eficiencia.

  • 'Part Three: The Faster Future' Una visión holística al futuro.

    • 'Chapter Thirteen: Therats and Solutions' Un capítulo para echar un vistazo a las posibles amenazas y también las posibles soluciones para todo el avance conseguido. Habla del problema del agua, del cambio climático, del almacenamiento de energía y energías renovables, vehículos eléctricos, biodiversidad, desempleo, etc

    • 'Chapter Fourteen: The Five Great Migrations' Mira hacia un futuro unos años más allá e identifica cinco grandes movimientos de personas: las dos primeras más tradicionales e incluso del pasado, las tres últimas realmente futuristas: migraciones debidas al clima, migración hacia las ciudades, migración a mundos virtuales, migración al espacio, migración hacia la meta-inteligencia.

'The future is faster than you think' no es, al menos a mi no me lo parece, un libro de conceptos sino, más bien, un libro para abrir la mente e inspirar, para intuir nuevos fenómenos y nuevas tecnologías aunque, seguramente, sin llegar realmente a entenderlos.

El libro sigue un discurso, muy habitual por lo demás en las obras y charlas de autores de origen nortemericano, muy centrado en las historias, las curiosidades, los ejemplos y las anécdotas, más que en una exposición ordenada de conceptos o teorías. Un estilo que suele ser eficaz para atraer e incluso mantener la atención pero que deja tras de sí ideas poco nítidas.

Eso convierte a 'The future is faster than you think', al menos en mi opinión, en un buen libro para la pura lectura, pero no para la consulta o referencia y dependiendo de lo que el lector busque en él, le satisfará más o menos.

Peter Diamandis

(Fuente: Ficha de conferenciante en Thinking Heads)

Peter Diamandis
Peter Diamandis es el presidente y CEO de la X PRIZE, Fundación, que lidera el mundo en el diseño y lanzamiento de grandes premios de incentivo para impulsar avances radicales en beneficio de la humanidad. Mejor conocido por el PREMIO Ansari X de $ 10 millones para vuelos espaciales privados y el PREMIO X de Progressive Automotive X de $ 10 millones para automóviles equivalentes de 100 millas por galón, la Fundación ahora está lanzando premios en Exploración, Ciencias de la vida, Energía y Educación. Diamandis también es un líder internacional en el ámbito del espacio comercial, ya que fundó y dirigió muchas de las empresas líderes en este sector. Como cofundador y presidente de la Singularity University, una institución con sede en Silicon Valley se asoció con la NASA, Google, Autodesk y Nokia, Diamandis asesora a las principales empresas del mundo sobre cómo utilizar tecnologías exponenciales e incentivar la innovación para acelerar drásticamente sus objetivos comerciales.

Además, Diamandis es cofundador y vicepresidente de Human Longevity Inc. (HLI), una compañía de diagnóstico y terapéutica basada en la terapia celular y la genómica centrada en la prolongación de la vida humana sana. En sus presentaciones principales, Diamandis se centra en la importancia de la innovación y mira hacia el futuro al explicar cómo las tecnologías que avanzan exponencialmente transformarán nuestras empresas, nuestras industrias, nuestros gobiernos y nuestras vidas en los próximos 5 a 10 años. Diamandis es el autor de Abundance: The Future is Better than You Think (febrero de 2012) que muestra cómo las tecnologías exponenciales, junto con el movimiento de bricolaje y la conectividad en línea de los "millones en aumento" permitirán una era de abundancia global que proporciona agua, energía, alimentos, vivienda, educación y salud en una disponibilidad sin precedentes para la humanidad. También es autor de BOLD, How to go BIG, Create WEALTH e Impact the World (febrero de 2015), una guía práctica para usar tecnologías exponenciales, pensamiento instantáneo y herramientas de multitud para crear riqueza a la vez que impacta positivamente las vidas de billones de personas.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @PeterDiamandis.

Steven Kotler

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Steven Kotler
Steven Kotler es un autor superventas y periodista laureado. Como director ejecutivo de Flow Research Collective, es uno de los mayores expertos mundiales en alto rendimiento.

Su trabajo 'Stealing Fire' ha sido un best seller y nominado al premio Pulitzer. Ilustra la revolución subterránea en rendimiento máximo que se está convirtiendo rápidamente en 'mainstream', alimentando una economía de un trillón de dólares y forzándonos a repensar cómo lideramos unas vidas más satisfactorias, productivas y significativas.

Este trabajo fue precedido por dos libros sobre tecnología, 'Tomorrowland' que trata de esos innovadores inconformistas que transformaron las ideas de la ciencia-ficción en hechos y 'Bold' que fue denomimado como "un roadmap visionario hacia el cambio" poor Bill Clinton y que se mantuvo varias semanas en lo más alto de las listas de best-seller de New York Times y Wall Street Journal.

Su libro anterior, 'The Rise of Superman' fue uno de los más comentados en 2013 y el primer texto en alcanzar la lista de best-seller de The New York Times en las categorías de deportes, ciencia, psicología y negocios simultáneamente. En él, Steve decodifica la ciencia del flujo, del estado óptimo de conciencia donde nos sentimos perfectos y rendimos al máximo nivel.

Si 'The Rise of Superman' explora los límites de las posibilidades individuales, 'Abundance' explora los límites de las posibilidades de la sociedad, descomponiendo cuatro fuerzas emergentes que confieren a la humanidad el potencial para elevar significativamente los estándares globales de vida, a lo largo de los próximos 20 o 30 años. 'Abundance' se mantuvo 10 semanas en lo más alto de la lista de best-seller de The New York Times y apareció en cuatro prestigiosas listas de libros del año.

'A Small, Furry Prayer', el libro de Steven sobre las relaciones entre humanos y animales, fue un superventas nacional y fue nominado al premio Pulitzer. 'West of Jesus' que examina la neurobiología de la experiencia espiritual, fue finalista de Pen/West, y su novela 'The Angle Quickest For Flight' ganó el premio William L. Crawford IAFA Fantasy.

El trabajo de Steven ha sido traducido a más de 40 idiomas y aparecido en más de 100 publicaciones, incluyendo The New York Times, Atlantic Monthly, Wall Street Journal, Forbes, Wired y TIME. También aparece con frecuencia en radio y televisión y da charlas frecuentes sobre rendimiento humano, tecnología disruptiva e innovación radical.

Steven es también co-fundador de Creating Equilibrium una conferencia/concierto aceleradora de innovación enfocada en resolver problemas medioambientales críticos y junto con su mujer, la autora Joy Nicholson, Steven es co-fundador de Rancho de Chihuahua, un hospicio para cuidados especiales para perros en las montañas del norte de México.

Tiene un grado por la Universidad de Wisconsin y Máster por la Johns Hopkins University y, siempre que le es posible, se le puede encontrar descolgándose por las montañas a toda velocidad.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @steven_kotler.

Ficha técnica:

EDITORIAL: Simon & Schuster
AÑO: 2020 
ISBN: 978-1982109660
PAGINAS: 375

Artículos de este blog relacionados