viernes, 3 de julio de 2020

Acompañando a Antonio Damasio en su viaje neurocientífico desde las células a los sentimientos, la conciencia y la cultura humanos

'The strange order of things' es una obra en que el popular neurocientífico, Antonio Damasio intenta, creo, resumir todo su estudio y pensamiento hasta la fecha. Se trata de una especie de recorrido histórico-evolutivo en que partiendo del origen mismo de la vida, los organismos unicelulares, recorre etapas evolutivas hasta la aparición del ser humano y sus más altas creaciones como la cultura, el arte o las religiones. Y como motor de todo ello, la denominada 'homeostasis', el mecanismo por el que un ser se regula a sí mismo para mantenerse en condiciones compatibles con su propia supervivencia. Y también muy importantes en el discurso los sentimientos que son las percepciones de un ser sobre sí mismo, sobre su propio cuerpo, y su bienestar o malestar, el dolor o el placer, es decir, la percepción subjetiva de una criatura dotada de mente, acerca del estado de la vida, su vida.

El libro se estructura en trece capítulos agrupados en tres partes, como sigue:
  • PART I - ABOUT LIFE AND ITS REGULATION (HOMEOSTASIS)
    • 1. On the human condition
    • 2. In a region of unlikeliness
    • 3. Varieties of Homeostasis
    • 4. From single cells to nervous systems and minds

  • PART II - ASSEMBLING THE CULTURAL MIND
    • 5. The origin of minds
    • 6. Expanding minds
    • 7. Affect
    • 8. The construction of feelings
    • 9. Consciousness

  • PART III - THE CULTURAL MIND AT WORK
    • 10. On cultures
    • 11. Medicine, inmortality and Algorithms
    • 12. On the human condition now
    • 13. The strange order of things

Tras los tres capítulos iniciales en que explica conceptos fundamentales como el de homeostasis y donde anticipa ya un poco toda la línea argumental del libro, en el cuarto capítulo comienza esa especie de recorrido evolutivo hablando de las bacterias y su forma de superviencia. En la evolución destaca como punto importante la aparición de los sistemas nerviosos que ponen al cerebro en contacto con el resto del cuerpo, permitiendo, no sólo enviar órdenes sino también percibir y monitorizar el estado de ese cuerpo y empezar a formarse imágenes del mismo. La combinación de imágenes tanto de aspectos metabólicos como también de esqueleto y músculos, habilita la creación de mentes conscientes.

A partir de ahí, y ya en la segunda parte, se añaden otros elementos como la percepción del mundo exterior, la formación de imágenes acerca del mismo y la construcción de lenguajes. El autor da mucha importancia a los sentimientos ('feelings') que entiende como una imagen interna del estado del cuerpo, y con una función homeostática en el sentido de ayudar a su regulación intentando generar sentimientos agradables. Y aparece la conciencia que proporciona al ser que la posee una experiencia privada de sí mismo y el mundo que le rodea, siendo esa subjetividad y visión integrada características definitorias a las que se unen características como estar despierta, alerta, enfocada y orientada al tiempo y el espacio.

En la tercera parte del libro se salta a aspectos que trascienden al individuo para llegar a una dimensión más social. En esa parte del camino, se apunta de nuevo a una función homeostática en el sentido de que las culturas surgen para gestionar los afectos, los cuales se relacionan a su vez con los sentimientos y estos con el cuerpo y su estado. Y así, en último término, la cultura está al servicio de intentar alcanzar unas mejores condiciones para la vida. A partir de ahí se enlaza con el arte o con la religión. Sin embargo, la cultura humana presenta la particularidad de que, a pesar de su origen homeostático, puede llegar a ignorar su origen genético e intentar un mayor control de su propio destino. En esta parte, el libro resulta algo más especulativo, aunque sin perder su estilo ordenado, razonado y de discurso coherente.

'The strange order of things' es un libro muy interesante y con una teoría ordenada que va asentando unos conceptos sobre los anteriores, muy especialmente en los primeros capítulos del libro. No se trata una lectura demasiado compleja aunque en cierto modo esa sencillez es engañosa: cada paso, cada frase o párrafo, parece comprenderse bien pero, sin embargo, aprehender todos los conceptos y todo el hilo argumental no es tan sencillo. Por otro lado, la calidad explicativa es buena o muy buena, pero de vez en cuando me ha parecido percibir pequeños saltos en el vacío en que no he logrado entender por qué una cosa llevaba a otra. No sé si han sido limitaciones propias, si es que realmente algún paso no estaba suficientemente explicado o si es que realmente existan algunas lagunas en el razonamiento de Damasio.

En cualquier caso, un libro muy, muy interesante.

Antonio Damasio

(Fuente: Wikipedia)

António C. R. Damásio (Lisboa, 25 de febrero de 1944) es un famoso médico neurólogo de origen portugués.

Antonio Damasio
Damasio estudió medicina en la Facultad de Medicina de la Universidad de Lisboa, donde realizó también su rotación como residente y completó su doctorado. Más tarde, se trasladó a los Estados Unidos como investigador visitante durante seis meses en el Aphasia Research Center (Centro para la investigación de las afasias) en Boston. Allí, su trabajo sobre neurología del comportamiento estuvo bajo la supervisión de Norman Geschwind.

Es profesor de la cátedra David Dornsife de Psicología, Neurociencia y Neurología en la Universidad del Sur de California, donde dirige el Institute for the Neurological Study of Emotion and Creativity de los Estados Unidos (Instituto para el estudio neurológico de la emoción y de la creatividad). Antes de llegar a este puesto universitario, en 2005, Damasio fue profesor de la cátedra M.W. Van Allen y Jefe de Neurología en el Centro Médico de la Universidad de Iowa. Su carrera en Iowa se prolongó entre 1976 y 2005. Además de ser un conocido investigador en varias áreas de las neurociencias, es un autor de éxito de libros de ciencia de tipo divulgativo.

Está casado con Hanna Damasio, colega y co-autora de varios de sus libros.

Ficha técnica:

EDITORIAL: Vintage
AÑO: 2018 
ISBN: 978-0307908759
PAGINAS: 336

miércoles, 1 de julio de 2020

Los algoritmos de Inteligencia Artificial sí saben explicarse


La afirmación puede parecer sorprendente e incluso atrevida o equivocada, para todo aquel interesado en los aspectos éticos y jurídicos de la Inteligencia Artificial porque, el consenso existente es que los algoritmos de Inteligencia Artificial, muchos de ellos al menos, actúan como 'cajas negras' y no pueden explicar cómo 'toman sus decisiones'. Y el interés, que puede llegar a convertirse en ley, en que los algoritmos puedan hacer patentes sus lógicas, da lugar a una disciplina subconjunto de la Inteligencia Artificial, la 'explainable AI' que busca, precisamente, que los humanos podamos entender y, por tanto, valorar, juzgar y, en su caso, desestimar o corregir, el razonamiento seguido por el algoritmo para llegar a sus conclusiones. 

Pues hoy, tras un rato de reflexión sobre la materia, he llegado a una conclusión previa, una conclusión que desafía esa concepción de que los algoritmos de la inteligencia artificial no saben explicarse. Mi conclusión es que, bien al contrario, los algoritmos de la inteligencia artificial sí que pueden explicarse, pueden explicarse perfectamente.

Antes de que a ningún lector le de un 'infarto intelectual', hago un pequeño 'spoiler' y ya anuncio que, antes de acabar el artículo haré un matiz a esa afirmación, un matiz muy importante, que hace que, a pesar de lo que digo, tenga pleno sentido la existencia y desarrollo de esa disciplina de la 'explainable AI' y deja abierto el debate del interés o necesidad de exigir esa explicabilidad en según qué casos.

Vamos a ir poco a poco. Empecemos por entender un poco más a los algoritmos


Algoritmos de Inteligencia Artificial


Quiero lo primero advertir que la Inteligencia Artificial es una disciplina que agrupa algoritmos bastante heterogéneos. No conozco el detalle de todos los algoritmos de los que he leído o he estudiado, y seguro que existen algunos de los que ni siquiera tengo noticia. Pero lo que aquí digo creo que encaja con la mayor parte de los algoritmos populares incluidos dentro del llamado 'machine learning' y, por si acaso, además, advierto que en mi cabeza tengo sobre todo las redes neuronales y el deep learning. Si algún lector conoce algoritmos que cuestionan seriamente lo que aquí digo, estaré más que encantado de 'escuchar' comentarios y enmiendas.



Como explico en mi libro "La Carrera Digital", los algoritmos de inteligencia artificial, en general, podemos entender que se componen de dos partes o subalgoritmos: el de cálculo, el algoritmo propiamente dicho, el que calcula 'cosas' y es el que al final, reconoce imágenes, o textos, o intenciones de un hablante, o su rostro o analiza si está capacitado o no para un trabajo. Y el otro subalgoritmo, el de aprendizaje, el que hace que los algoritmos de inteligencia artificial aprendan, ya sea durante toda su vida o durante una fase acotada de entrenamiento, modificando para ello parámetros que afectan al funcionamiento del subalgoritmo de cálculo.


Determinismo



En cualquier caso, tanto un subalgoritmo como el otro son perfectamente deterministas (solo se me ocurre una familia de algoritmos, los algoritmos genéticos, donde la aleatoriedad juega un papel relevante). El que sean deterministas quiere decir que ante la misma entrada produce, siempre, la misma salida... eso sí, siempre no se haya producido entrenamiento adicional entre entrada y entrada.

Así, por ejemplo, una red neuronal típica, como un perceptrón multicapa, una vez definidos el número y tipo de capas, su conectividad, las funciones de activación de las neuronas, etc tiene como parámetros principalmente, los pesos que matizan las entradas a cada neurona. Para una combinación concreta de pesos, la salida de la red ante una entrada es absolutamente determinista. El subalgoritmo de aprendizaje, por ejemplo el famoso 'gradient descent', una vez marcadas algunos aspectos como la función de error o el optimizador a usar, es, de nuevo, plenamente determinista, y ante un valor determinado de error produce una actualización absolutamente predecible de los pesos de la red.


Cómo razona un algoritmo



Los detalles dependen del algoritmo pero, simplemente, aplica su subalgoritmo de cálculo... un algoritmo  que seguirá unas transformaciones lógico-matemáticas y que, según acabamos de mostrar, es plenamente determinista... y, además, perfectamente conocido por el desarrollador o científico de datos.

Lo voy a repetir por si no se ha apreciado suficientemente lo que he dicho: un algoritmo plenamente determinista y perfectamente conocido por su desarrollador o científico de datos.

En el caso de una red neuronal típica, las neuronas de la capa de entrada tomarán los valores de las variables de entrada, las multiplicarán por sus pesos, probablemente sumen esos productos en la llamada función de transferencia, y luego pasen esa suma por una función que podría ser, por ejemplo, la sigmoidea generando su valor de salida. Eso por casa neurona de la capa de entrada...cuyas salidas constituirán las entradas de la siguiente capa según un patrón de conexión perfectamente definido. Y este proceso se repetirá hasta pasar por todas las capas y tener los valores de salida en las neuronas de la capa de salida, lo cual será la codificación de la solución propuesta por la red. 


El algoritmo nos cuenta su vida



¿Qué cómo explica sus decisiones un algoritmo? Sencillísimo: explica las variables que tiene como entradas y las transformaciones lógico-matemáticas que ha hecho para llegar al valor de las variables de salida. Punto. Así ha razonado. Así ha 'tomado su decisión'. No hay más. De verdad.

Imaginemos que nuestra famosa red neuronal se dedica al reconocimiento de imágenes clasificándolas en tipos de animales (perro, gato, vaca,...). Y ahora esa red 'se anima' y de modo relajado nos cuenta su vida y cómo razona cuando se lo pedimos. ¿Qué nos contaría?

Algo como esto:

"Verás, mi creador, me diseño con X capas de Y neuronas. En la capa de entrada recojo H variables que entran en mis neuronas de tal y tal manera. Una vez 'me contó' que esas variables eran los niveles RGB de los píxeles de una imagen pero, si te digo la verdad, a mí eso me da un poco igual. Como puedes ver, en mi capa de salida hay Z neuronas. Mi creador me ha dicho que cada una de esas neuronas, cuando se activa, representa una clase de animal pero, sinceramente, eso tampoco me importa mucho. Y luego me diseño con el algoritmo de procesamiento de cada neurona y capa. Te cuento la forma en que calculo es....

Durante una temporada me estuvo entrenando y me decía, ¿ves esta imagen? Pues es un tal o un cual. Y yo ajustaba mis pesos según la función de error y el optimizador de que estoy constituida, para intentar mejorar y hacerlo cada vez mejor. Y, tras miles de ejemplos, mi creador me dijo que ya estaba preparada, que ya clasificaba muy bien.Y yo le creo porque lo cierto es que ya la función de error daba siempre valores irrisorios.

Asi que, ¿qué he hecho con esos datos que me has puesto como entrada? He supuesto que son una imagen, he extraído sus píxeles y sus valores RBG, se los he 'enchufado' a las neuronas de entrada y he calculado la salida, capa a capa, como te he explicado. ¿Quieres saber los pesos que he aplciado? 'No problem', son estos ¿ves? Ya está. Clarísimo, ¿verdad?"

Y una red que tomase decisiones más delicadas como qué candidato es más adecuado en un proceso de selección, o si se debe condenar o no a una persona, o qué decisión debe tomar el vehículo autónomo que controla, se 'explicaría' de forma parecida.

Y esa explicación. si el algoritmo es mudo, nos la puede dar perfectamente su desarrollador quizá con un pequeña ayuda informática para saber el valor exacto de los pesos y recordar la topología detallada de la red y sus hiperparametros.

Si, la red, como cualquier algoritmo, explica de forma clara e inapelable cómo razona.

No hay magia. No hay voluntades ocultas. No hay misterio. Sólo hay transformaciones lógico-matemáticas matizadas y optimizadas durante el aprendizaje. Y el algoritmo, o el desarrollador en su nombre nos las pueden contar, perfectamente.

Se acabó el problema ¿no?

Pues no, por desgracia no se acabó el problema. El algoritmo, en efecto, se explica, pero seguimos tendiendo un problema,

¿Cuál es el problema? La necesidad de la 'explainable AI'


El problema es que no entendemos al algoritmo. No, mejor dicho aún, el problema es que queremos que nos explique su funcionamiento de otra forma, como a nosotros nos conviene.

El algoritmo, funciona en términos lógico-matemáticos de una forma determinista y perfectamente explicable y conocida. Pero nosotros queremos una explicación que voy a llamar simbólico-lingüística.

¿Qué quiero decir con esto de simbólico-lingüística?

No sabemos realmente cómo funciona nuestro cerebro. No sabemos si su operativa interna se parece a las redes neuronales o no. Pero lo que sí sabemos, por nuestra propia experiencia, es que cuando los seres humanos explicamos nuestra forma de razonar y decidir, y cuando lo plasmamos en nuestras conversaciones, nuestros informes, nuestras leyes y nuestras sentencias no lo hacemos, desde luego, en términos matemáticos, ni siquiera de impulsos eléctricos o transformaciones químicas. Lo hacemos utilizando símbolos o imágenes de la realidad que se expresan habitualmente en forma de lenguaje y con una lógica del estilo de la lógica proposicional.

Y queremos que el algoritmo nos explique sus razonamientos en esos términos simbólico-lingüísticos. Pero el problema es que el algoritmo ha razonado de otra forma completamente distinta.

Cuando el algoritmo trabaja para reconocer imágenes como las de los animales, o los dígitos de la matrícula, o incluso para que nos haga la predicción del tiempo de mañana, nos importa bastante poco cómo razona siempre que acierte. En ese caso sólo nos importa la efectividad y, quizá, la eficiencia. Nada más.

Pero si el algoritmo lo utilizamos para aprobar o rechazar un préstamo, para seleccionar un candidato u otro para una empresa o para un ascenso, o si empleamos el algoritmo o para condenar o no a un acusado, la cosa cambia. Porque son asuntos que nos importan mucho. Y porque son cosas en que no está clara cuál es la solución acertada y si el algoritmo (ni siquiera la persona) acierta o no acierta. 

Así que, en estos casos, no nos conformamos con la efectividad y la eficiencia. 

Y queremos una explicación que entendamos, que nos convenza y que podamos valorar, evaluar y, en su caso, desestimar. Y no queremos números ni matemáticas, queremos lenguaje y lógica proposicional.

Ese es el problema.

Y el reto, el verdadero reto, es averiguar, por un lado, si existe alguna traducción posible entre el razonamiento lógico-matemático del algoritmo y el simbólico-lingüístico de las personas, lo cual no es evidente Y, en caso de que exista, esa traducción, encontrar la forma de conseguirla Y, si no existe, que puede ocurrir, pensarnos muy bien qué hacemos.

En conclusión


Así que, como anunciaba, mantengo mi tesis de que "los algoritmos de inteligencia artificial sí saben explicarse, pero añado un matiz, no como los humanos entendemos y, sobre todo, no como a los humanos nos gustaría".

lunes, 29 de junio de 2020

Un sesgo de género visto desde el algoritmo


Mucho se habla de los sesgos en relación con la inteligencia artificial y el machine learning y con la necesidad de comportamientos éticos e incluso regulaciones con ella asociados.

Sin embargo, por desgracia, creo que muchos discursos, más o menos bienintencionados (o quizá no), carecen sin embargo de una base sólida para entender lo que sucede realmente.

Muchas veces me parece que la gente poco informada, se imagina una especie de maldad intrínseca en los algoritmos, o peor, una mala intención o falta de sensibilidad social, humana o ética de los ingenieros, desarrolladores o científicos de datos.

Y esa percepción me parece dolorosa e injusta. E incluso creo que es peligrosa, porque si queremos regular un fenómeno, lo primero que hay que hacer es entenderlo para no llegar a conclusiones equivocadas y decisiones desacertadas.

Leyendo el libro 'Introduction to Natural Language Processing' de Jacob Eisenstein me he encontrado con una buena explicación del autor que nos ilustra un caso concreto de sesgo explicado, eso sí, de forma científica y bien fundamentada.

Y me parece interesante y útil contemplar el sesgo, no desde fuera, no desde la argumentación simplista, vocinglera e incluso demagógica, sino desde dentro, desde el corazón mismo de la inteligencia artificial, desde el algoritmo, en este caso de procesamiento de lenguaje natural.

Pero antes, un poquito de contexto. 


Embeddings de palabras



Las redes neuronales, algoritmos habitualmente usados en procesamiento de lenguaje natural como en casi todas las ramas de la inteligencia artificial, funcionan a nivel matemático con vectores (una matriz unidimensional) y tensores (estos últimos una especie de generalización a espacio n-dimensional de las conocidas matrices para espacios bidimensionales).

En concreto, en el caso del procesamiento de lenguaje natural (NLP, 'Natural Language Processing') las palabras se suelen representar como un vector. Hay una forma sencilla de representar palabras de un espacio acotado mediante un vector: la codificación 'one-hot' en que, a cada palabra de un vocabulario le asigna un número entero y luego, se transforma en un vector en que el elemento del vector que corresponde a ese número adopta el valor 1 y el resto cero. Por ejemplo, si queremos representar un espacio de palabras con los colores de un semáforo 'rojo, 'amarillo' y 'verde' podríamos asignarles respectivamente los valores 'rojo'=0, 'amarillo'=1 y 'verde'=2 y eso se correspondería con usar el vector [1,0,0] para 'rojo', el [0,1,0] para 'amarillo' y el [0,0,1] para 'verde'. El problema de esta forma de codificar palabras es que, a poco que crezca el vocabulario que queremos representar, los vectores son enormes y muy dispersos (compuestos fundamentalmente de ceros).

Como alternativa se utilizan los denominados 'embeddings' de palabras en que, a cada palabra le hacemos corresponder un vector pero un vector denso (con pocos ceros) de números reales y con una dimensión mucho menor que el número de palabras posibles en el vocabulario.

Hay varias formas de asignar a cada palabra el vector que le corresponde en un 'embedding' pero, se suele intentar que tenga algún valor semántico para lo que se crean espacios geométricos donde la cercanía de dos palabras implica un significado parecido.



Semántica distribucional


Una forma de conseguir esos 'word embeddings' es aplicando lo que se denomina semántica distribucional ('distributional semantics') que parte del uso de palabras en su contexto en textos normales. Palabras que se usan de forma similar en contextos similares se entiende que tienen un significado parecido.  Proceden entonces a realizar análisis de distribuciones de palabras en diferentes contextos y, mediante aplicación de estadística, deduce unos vectores de números reales que asigna a cada palabra. En ese espacio n-dimensional, la hipótesis es que una cercanía geométrica implica cercanía semántica.

No vamos a entrar en el detalle de ese cálculo pero sí decir que lo cierto es que esta estrategia ha conseguido sorprendentes éxitos captando estructuras semánticas y analogías.

En la figura se muestra uno de esos mapas, en este caso bi-dimensional, en que se observan palabras relativas a parentescos, tratamientos y títulos nobiliarios.


Sesgo de género


La verdad es que parece casi mágico. Y desde luego, es efectivo. Pero, por desgracia, este tipo de tratamiento tiene el riesgo de los sesgos.

En su libro 'Introduction to Natural Language Processing', Jacob Eisenstein nos advierte que, en efecto, esta forma de actuar, tan ingeniosa y a la vez tan científica, puede llevar a sesgos.

Nos apunta a que hay palabras, como en la figura 'king' o 'queen' que, por sí mismas llevan implícito el género y, en ese sentido, no hay problema.

Pero si ahora incluyésemos palabras relativas a profesiones y las sometiésemos al mismo tratamiento, análisis estadísticos en contextos de uso, lo que cabe esperar es que profesiones tradicionalmente femeninas como 'nurse' (enfermera) o 'recepcionist' (azafata) figurasen cerca de palabras como woman' (mujer) mientras que profesiones tradicionalmente masculinas como 'skipper' (capitán), asignándoles, por tanto, cercanía semántica e implicando, por tanto, mayor relación de un género u otro con una profesión u otra. 

Y no se trata sólo una posibilidad, el autor apunta a estudios que han comprobado que ese sesgo se produce efectivamente, cosa que no resulta sorprendente, la verdad.


Los orígenes del sesgo


En este caso se ha ejemplificado el sesgo de género, pero no hay ningún motivo para pensar que no se puedan producir cualquier otro tipo de sesgos.

Sin embargo, me interesa mucho destacar por qué se produce el sesgo.

Hay que evitar las fantasías: el algoritmo en sí mismo es neutral y, por supuesto, no tiene voluntad ni intención. Ningún algoritmo la tiene: no son seres animados, no tienen mente, no tienen voluntad. Simplemente, aplica unas reglas asépticas, en este caso a unos textos de entrada.

Tampoco el desarrollador o científico de datos tienen ningún tipo de intencionalidad perversa o defecto ético. El algoritmo es perfectamente razonable, ingenioso, científico y ha demostrado sobradamente su efectividad y utilidad.

El sesgo, pues, no está ni en el algoritmo ni la persona que lo crea. El sesgo está en los datos de entrenamiento. Pero ni siquiera por una mala selección de los datos. No es que el científico de datos o ingeniero del conocimiento o lenguaje haya seleccionado malintencionadamente los datos para generar un resultado acorde con sus ideas. 

Nada de eso.

El sesgo está en el propio empleo que hacemos las personas en nuestro uso libre del lenguaje. Más aún, diría que el sesgo está en la propia realidad, nuestra realidad, nuestro comportamiento y nuestras asunciones, una realidad que nos demuestra que cómo actuamos y cómo nos expresamos no está en concordancia con los valores a los que aspiramos. En este caso, la realidad que contamos o cómo la contamos muestra un sesgo que nos gustaría que no existiera.

El algoritmo no es el culpable. El algoritmo sólo lo ha puesto de relieve.

Es importante entenderlo. Es importante evitar fantasías y demagogias y tener en cuenta cómo se producen los sesgos, de género o de lo que fueren, a la hora de gestionarlos y de adoptar decisiones éticas o regulatorias.

viernes, 26 de junio de 2020

La realidad de las interfaces cerebro-ordenador con Claude Clément

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es una revisión del estado del arte, aunque con vista al pasado y también al futuro, de las tecnologías usadas para la interacción entre dispositivos digitales y el sistema nervioso (tanto el cerebro como la médula espinal o ciertos nervios) y los dispositivos médicos activos implantables.

Se trata de una revisión orientada al campo sobre todo asistencial, y muy influenciada por la experiencia práctica del autor. Un análisis básicamente técnico, muy pegado a tierra, sin la más mínima concesión a la fantasía o la divagación y, quizá, quizá, algo escéptico e incluso pesimista.

El libro, de mediana extensión, se estructura en diez capítulos como sigue:
  • '1. Introduction:' que establece un poco las bases de lo que sigue, proporcionando una definición del campo de estudio y anunciando ya algunos dispositivos concretos agrupados por la visión histórica de pioneros, ejecutores y soñadores (pasado, presente y futuro) que usará en los capítulos finales del libro.

  • '2. From Concept to Patient:' Un capítulo que sorprende un poco porque, aunque teniendo siempre como telón de fondo los dispositivos médicos, abandona en buena medida el aparente objetivo del libro para centrarse en prácticas de gestión que, aunque evidentemente aplicables al campo del BCI, son realmente genéricas. Habla de elementos de dirección de proyectos como el modelo en cascada o la gestión de riesgos, la planificación o los costes. Luego analiza algunos elementos de contexto, como el entorno regulatorio, factores humanos, el entono sanitario, elementos de financiación, propiedad intelectual, etc.

  • '3. Targets of Neuro-Technologies:' Un capítulo largo pero muy interesante en que va presentando las diferentes formas y sobre todo equipos y dispositivos existentes para interactuar con el cerebro, la médula espinal, nervios y órganos concretos. Acompaña el texto con fotografías y esquemas que proporcionan una idea muy realista de lo existente

  • '4. The Human Body: A Special Environment:' Habla de los dispositivos médicos activos implantables y, sobre todo, las particularidades que presenta el cuerpo humano para llevar a él tecnología. Detalla, por ejemplo, el problema de la biocompatibilidad, la bioestabilidad, la corrosión, la limpieza, la esterilidad, la hermeticidad y el control de humedad, la robustez mecánica y eléctrica, la comunicación a través de tejidos y la alimentación de los implantes.

  • '5. Below and Above-The_neck:' Un breve capítulo repasando tipos de implantes subdividiéndolos en aquellos que se realizan bajo el cuello y, sobre todo, en la cabeza, incluyendo los intracraneales.

  • '6. Pioneers:' Inicio de una revisión histórica de los dispositivos médicos activos implantables, en que se comienza con los éxitos del pasado como los marcapasos.

  • '7. Doers:' Continuación de la revisión histórica, ahora con el estado del arte actual, incluyendo un estudio de oportunidades en materia de energía, miniaturización, conectividad, implantabilidad, comunicaciones ópticas, ultrasónicas o por radiofrecuencia, etc. También se analizan aspectos de la industrialización y cadena de suministro y se finaliza con una larga de descripción de áreas actuales de estudio y tendencias.

  • '8. Dreamers:' Una visión muy breve enfocada hacia el futuro pero incluyendo tendencias disruptivas con las que el autor no parece estar muy en sintonía. Se habla, por ejemplo, del 'hombre aumentado' y de implicaciones éticas.

  • '9. Conclusiones:' Un muy breve capítulo de cierre.

  • '10. Anexes:' Un conjunto heterogéneo de anexos sobre gestión de riesgos, sobre el modelo 'NeuroVirtual' y una guía de la FDA sobre interfaces cerebro-ordenador.

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es un libro que demuestra un profundo conocimiento de la materia por parte del autor y que ilustra muy bien, con esquemas y fotografías, todo tipo de dispositivos y equipos. Se proporciona mucha información valiosa, aunque quizá en ocasiones, demasiado prolija, y se proporciona, creo, una muy buena panorámica de la tecnología y soluciones existentes.

Echo en falta, eso sí, algo más de profundización en materias como el tratamiento de las señales procedentes del sistema nervioso y las enviadas al sistema nervioso y la algoritmia que pudiese existir en los dispositivos que denomina inteligentes. Es posible que estos temas sean menos relevantes en el campo en su conjunto, pero son lo que a mi me interesan especialmente y por eso me he quedado con las ganas de algo más de material en este sentido.

El autor busca, de forma muy clara, ser realista y prudente en un campo delicado por sus implicaciones y dificultades, tanto físicas como tecnológicas e incluso éticas. Sin embargo, en ese empeño, muy loable, en el rigor y el realismo, a veces cae, en mi opinión, en el extremo contrario y casi resulta en exceso conservador y pesimista, incluso un poco autosuficiente.

Un libro, pues, para informarse y aprender, pero no para ilusionar.

Claude Clément

(Fuente: Traducción y ligera elaboración propia de la ficha de autor en el libro 'Brain Computer Interface Technologies')

Claude Clément
Trabajando actualmente como freelance, hasta Diciembre de 2019 Claude Clément fue Chief Technical Officer para el Wyss Center for Bio and Neuro Engineering en Ginebra, Suiza. Ha sido fundador, presidente y miembro del comité ejecutivo de varias startups y pequeños negocios. Tiene un Máster en Ingeniería Eléctrica y Electrónica por el Swiss Federal Institute of Technology (EPFL) en Lausana y un MBA de HEC en la Universidad de Lausana, Suiza.

Claude comenzó su carrera en Investigación y Desarrollo para la industria relojera en el Grupo Swatch como jefe del grupo de desarrollo de transductores y actuadores. Entró en el mundo de las tecnologías médicas encabezando las actividades de diversificación de Swatch en el campo de las bombas de dispensación de fármacos programables wearables. A continuación estuvo 23 años en el campo de dispositivos médicos activos implantables, como director de Ingeniería de Fabricación en Intermedics (ahora Boston Cientific), como gerente de planta de las operaciones suizas de Medtronic, y más tarde como consultor para grandes compañías, fundamentalmente en el área de los marcapasos, y para varias startups innovadoras.

A partir de 1996, puso en marcha y desarrolló la fábrica altamente automatizada de Medtronic en el área de Lago Ginebra. Esta planta es la mayor instalación en Europa para el ensamblado de dispositivos médicos activos implantables, produciendo más de 2.000 marcapasos, desfibriladores y neuro estimuladores diarios. Hasta 2014, fue CEO de MyoPowers, una compañía startup que desarrolló un implante biomédico para el tratamiento de la incontinencia severa.

Puedes saber más del autor visitando su perfil en LinkedIn.

miércoles, 24 de junio de 2020

Simples y superficiales: ¿el conocimiento era esto?


Estamos en la era del conocimiento. Eso se supone. En eso confío. Y casi, casi, eso creo. 

Pero asoman algunos nubarrones en ese horizonte intelectual.

Vivimos en una era de altísima exposición a información. El alcance de internet, la omnipresencia de los smartphone y la explosión de las redes sociales y otros medios digitales, hacen que nos veamos a expuestos a un incesante flujo de información y de estímulos.

Eso podría llevarnos, eso nos debería llevar, a un mayor conocimiento. Es cierto que la información no es directamente conocimiento. Que para que se produzca el conocimiento tienen que existir un cierto procesamiento, una cierta digestión intelectual que obtenga conclusiones, ideas y directrices de futuro de esa exposición. Pero a más información parece que deberíamos generar más conocimiento ¿no?

Bueno, no del todo. Si la digestión no es buena, tal vez la información no genere conocimiento. Y parece que, en efecto, tenemos un cierto empacho, que el atracón de información no nos sienta del todo bien.


Superficiales


Hace ya unos años, Nicholas Carr denunciaba en su libro 'Superficiales' cómo la exposición a mensajes breves pero muy numerosos, está haciendo que nuestros cerebros y todo nuestro sistema cognitivo se adapten a la nueva situación. Y esa adaptación hace que, si, seamos capaces de procesar más mensajes y con cierta simultaneidad. Pero, a cambio, parece que perdemos capacidad para la concentración, para la reflexión, para la lectura profunda, para el flujo. Superficiales. Nos volvemos superficiales. No parece que esa sea una buena noticia de cara al conocimiento...


Simples



Estoy leyendo ahora mismo el libro 'Lo imprevisible' de la periodista Marta García Aller. Bastante al principio del libro, menciona una cita de Alvin Toffler en 'El shock del futuro' quien afirmaba que la saturación de información podría activar en las personas mecanismos de defensa, unos mecanismos de defensa que supondrían que, ante la imposibilidad de digerir tanta información, las personas optasen por la simplificación, como única forma de poder comprender el mundo. Pero esa simplificación podría suponer una reafirmación de prejuicios.

Alvin Toffler hacia ese planteamiento hace ya muchos años, nada menos que en 1970, pero cuando uno observa ciertas 'conversaciones' que se producen en twitter, cuando se contemplan fenómenos de exacerbación de extremismos y populismos en ámbitos sobre todo políticos, cuando se leen tantos y tantos eslóganes, cuando se nos ofrecen imágenes de revisionismos históricos absurdos, cuando se contempla tanto comportamiento simplista, uno tiende a pensar que el aviso de Alvin Toffler era acertado y que nos estamos volviendo simples. Simples. Nos volvemos simples. Eso tampoco parece una buena noticia para el conocimiento...


La sociedad del verdadero conocimiento


Simples y superficiales. ¿De verdad el conocimiento era esto?

Quiero pensar que no. Quiero creer que, por un lado, el beneficio de tanto dato y tanta información, los frutos que podemos obtener de su conocimiento y análisis superan con mucho algunos defectos y sesgos que se pudieran producir por el camino. Y quiero pensar que la abundancia de información, debería ser un signo de transparencia y libertad y que, también en la esfera social y política, los beneficios de la abundancia de información superan con creces, a los, espero, puntuales sesgos y extremismos.

Eso espero, pero tampoco estoy seguro. Y, en cualquier caso, conseguir esos beneficios y eliminar la superficialidad y el simplismo, implica responsabilidad y esfuerzo.

A nivel individual deberíamos, por un lado, esforzarnos en acceder a información con diferentes puntos de vista, adquirir distancia y cierta neutralidad y ejercer el juicio crítico. Y deberíamos también esforzarnos en adquirir conocimiento tranquilo por otros medios, mediante las lecturas profundas u otras actividades de concentración y desarrollo intelectual.

Y a nivel social y público, deberíamos buscar mecanismos que favoreciesen la moderación, la verdad y ese mismo juicio crítico. Aunque debo confesar, que esto no tengo claro del todo cómo se debería hacer.

Simples y superficiales.

No, El conocimiento no es eso. Y la sociedad del conocimiento no puede ser eso.

Mientras pensamos o promovemos una acción social de mayor calado, esforcémonos, al menos, por la responsabilidad individual, por nuestro propio desarrollo, por nuestro propio conocimiento.

lunes, 22 de junio de 2020

Algoritmos y correlación de datos: la casi imposible privacidad


Uno de los evidentes, conocidos y ampliamente comentados riesgos del mundo digital, es la dificultad para defender la privacidad y la intimidad, para mantener al margen de la recolección, análisis y uso por parte de terceros, la información que nos concierne y que preferiríamos que no fuese conocida o, al menos, no de forma pública o no con fines comerciales, sociológicos o incluso políticos.


Los datos de carácter personal


Desde hace muchos años existe el concepto de datos de carácter personal, aquellos que más tienen que ver con nuestra identificación, con nuestras opciones en materia ideológica, religiosa, sexual etc o con nuestra situación de salud. Y desde hace muchos años existen leyes y reglamentos que protegen esos datos y que cuidan de que no se haga un mal uso de ellos.

Europa ha sido una adelantada en materia de protección de datos con el famoso GDPR, una reglamentación exigente en la línea de no permitir el uso de datos sin que la persona interesada haya dado su consentimiento explícito. 

Hay flancos, no obstante, muy difíciles de proteger incluso con esta reglamentación. Todos tenemos la experiencia de aceptar condiciones de uso sin haberlas leído. En general sabemos, o intuimos, que en esas condiciones de uso estamos admitiendo una explotación de nuestros datos seguramente por encima, o muy por encima, de lo que realmente nos gustaría que se produjese. Pero, aparte de lo engorroso que resulta la lectura del clausulado de las condiciones de uso, también sabemos que 'no pasar por el aro' de muchas de estas condiciones te deja bastante fuera del mundo digital actual, quedando al margen de algunas de las aplicaciones y servicios más populares.


La correlación


Pero hay un riesgo mucho menos conocido y que me parece de un aún mayor difícil control. Un riesgo que nace de la correlación de datos.

La correlación, dicho de forma muy sencilla, es el hecho de que dos o más fenómenos tiendan a producirse de una forma simultánea y/o evolucionar con cierto paralelismo.En algunas ocasiones, la correlación se produce por causalidad, porque un fenómeno es el causante de otro (por ejemplo, podemos pensar que calor y consumo de helados son fenómenos correlados porque el calor es la causa de que consumamos más helados para refrescarnos). Pero en otras ocasiones no existe una causalidad sino que ocurren a la vez por estar ambos causados por un tercer fenómeno o por interrelaciones complejas y a veces desconocidas pero que dan como resultado esa evolución paralela. 


Patrones de comportamiento


Por suerte o por desgracia, los seres humanos somos predecibles, mucho más predecibles de lo que pensamos y nos comportamos con arreglo a patrones bastante identificables. Existen patrones de comportamiento debidos no ya a factores constitutivos y evolutivos, sino también a efectos culturales, de educación o incluso de imitación o asimilación al grupo que hace que las personas de una misma edad, género, ideología, clase social, opción religiosa, etc, tendamos a comportarnos de formas similares.

La consecuencia que esto tiene es que, incluso sin proporcionar de forma explícita información sobre nosotros mismos, incluso sin aportar nuestra información de carácter personal, de alguna forma nuestros comportamientos 'nos delatan'. Existe correlación entre nuestras características y opciones personales y nuestros comportamientos.


Algoritmos y correlación


Y hoy en día, esos comportamientos dejan trazas, dejan información, abundante información,  en las redes sociales, en nuestros teléfonos móviles y en tantos y tantos registros de datos de los que podemos o no ser conscientes. Unos registros de datos no protegidos o sólo débilmente protegidos porque son públicos y porque no recogen información personal o al menos no información que la persona no haya aportado voluntariamente.

Y como esos comportamientos correlan con nuestra naturaleza, nuestro estado, nuestras opciones, nuestra ideología, es posible, a través de los potentes algoritmos actuales, obtener información muy precisa sobre cada uno de nosotros. Uno de los aspectos en que más destaca el machine learning es, precisamente, el reconocimiento de patrones. No en vano, mucho antes de que se acuñase el término 'machine learning', ya se hablaba e investigaba en 'pattern matching' de donde provienen muchos e los algoritmos actuales del machine learning. 


La casi imposible privacidad


Y si nuestro comportamiento está sujeto a patrones que delatan nuestras opciones personales. Y si esos comportamientos dejan trazas en forma de datos y si existen algoritmos capaces de detectar esos patrones, la protección explícita de nuestros datos personales, incluso aunque fuese efectiva, puede estar dejando un flanco muy débil.

Y no es un flanco, creo, nada fácil de proteger, Estamos en la obligación de buscar fórmulas técnicas, éticas y legales para conseguir esa protección. Pero me temo que esas fórmulas, en todo caso, protegerían de un mal uso por parte de ciudadanos, empresas y administraciones con intereses, digamos, normales. Intereses que pueden ser comerciales o incluso de curiosidad, pero siempre dentro del margen de una cierta honestidad y arreglo a la ley. ¿Pero cómo protegernos frente a 'los malos', a los realmente 'malos'? ¿Cómo poner barreras ante gobiernos autoritarios, ante terroristas o ante el crimen organizado? En esos casos, ni la ley ni, por supuesto, la ética, constituyen barreras eficaces. Y técnicamente, tampoco veo ahora mismo un medio de protección fiable.

¿Qué hacemos?

viernes, 19 de junio de 2020

Exoesqueletos y rehabilitación con Cardona, Solanki y García Cena

'Exoskeleton Robots for Rehabilitation and Healthcare Devices' es un libro breve, poco más de 100 páginas, y coral, con variedad de autores aunque en portada lo firmen tres, que aborda la temática de los exoesqueletos aunque, eso sí, desde un perspectiva bastante acotada al campo de su uso en rehabilitación.

El libros se estructura en cinco capítulos, como sigue:
  • Robotics for Rehabilitation: A State of the Art: Un breve capítulo introductorio en que define el concepto de exoesqueleto y explora su uso tanto en el caso de extremidades superiores como inferiores.

  • Sensors and Motion Systems: Un capítulo, quizá algo disperso en sus contenidos. Su tema principal son los sensores de los cuales empieza hablando de una forma muy genérica y en ámbitos diferentes de la rehabilitación, para luego abordar ya, pero sin mucho detalle, su uso en temas médicos y asistenciales. Y finaliza con un tema diferente como son los tipos de ayudas y dispositivos usados como ayuda a la movilidad: andadores, sillas de ruedas normales y eléctricas y algunas soluciones más avanzadas y más cercanas al mundo de los exo esqueletos y reflejadas en productos comerciales como el KartBot o los Hoverboards.

  • Gait Capture Systems: Se describen una serie de sistemas para obtener información acerca de la marcha de una persona.

  • Technologies for Therapy and Assistance of Lower Limb Dissabilities: Sit to Stand and Walking: Un capítulo algo más extenso donde se describen soluciones para el caso de problemas en las extremidades inferiores. Se comentan algunas causas posibles de esos problemas, la biomecánica del acto de incorporarse desde la posición de sentado o de andar, algunas terapias tradicionales y, finalmente, la terapia con robots.

  • Adaptable Robotic Platform for Gait Rehabilitation and Assitance: Design Concepts and Applications: Describe las características de la plataforma creada por el proyecto AGoRA para la ayuda y rehabilitación de la marcha.
'Exoskeleton Robots for Rehabilitation and Healthcare Devices' tiene entre sus virtudes el ser de los pocos libros existentes sobre exoesqueletos (al menos a mi me ha costado encontrar literatura al respecto). A cambio echo en falta una descripción más amplia y abarcadora de la disciplina, y quizá una mayor profundidad en los aspectos técnicos tanto mecánicos cómo sobre todo, en materia de detección y tratamiento de señales y en el control y eventual inteligencia de este tipo de equipos.

Es un comienzo, pero me haría falta bastante más material.

Manuel Cardona

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Manuel Cardona
Manuel Cardona posee un grado en Ingeniería Eléctrica por la Universidad de Sonsonate (USO), El Salvador, en 2004 y un Máster en Automatización y Robótica por la Universidad Politécnica de Madrid, España, en 2008.

Desde 2007 a 2008, y en 2011, fue Investigador Ayudante en el grupo de investigación en Robótica y Máquinas Inteligentes en la Universidad Politécnica de Madrid, España. Tiene un posgrado en Investigacion Científica y en Gestión del Innovación. Actualmente, es doctorando en automatización y robótica en la Universidad Politécnica de Madrid.

Desde 2014, ha sido profesor y director de los grupos de investigación en Robótica y Máquinas Inteligentes y en Visión Artificial, ambos en la Escuela de Ingeniería en la Universidad Don Bosco, El Salvador. Es autor de más de veinte artículos de revisión entre pares, ha editado dos libros con Springer y ha impartido más de 55 conferencias. Sus intereses en investigación incluyen robótica rehabilitadora, biomecánica, cinemática y dinámica de robots serie y paralelo, sistemas empotrados, visión artificial e inteligencia artificial y su aplicación en sistemas robóticos.

Es miembro senior del IEEE, pertenece a la Robotics and Automation Society (RAS), la Aerospace and Electronic Systems Society (AESS) y la Education Society (EdSOC). Es revisor de la revista EEE Latin America Transactions Journal, la Neural Computing and Applications, Springer Journal y la IEEE Sensors Journal.

Puedes saber más del autor visitando su página oficial.

Vijender Kumar Solanki

(Fuente: Traducción y ligera elaboración propia de la biografía en su sitio Google)

Vijender Kumar Solanki
El doctor Vijender Kumar Solanki es profesor asociado en Computer Science & Engineering en CMR Institute of Technology (Autonomous), Hyderabad, TS, India.Tiene más de 10 años de experiencia académica em seguridad de red, IoT, Big Data, Smart City e IT. Antes de su rol actual, estuvo asociado al Apeejay Institute of Technology, Greater Noida, UP, KSRCE (Autonomous) Institution, Tamilnadu, India y al Institute of Technology & Science, Ghaziabad, UP, India. Es miembro de la ACM y Senior Member del IEEE.

Ha sido autor o co-autor de más de 50 atículos de investigación publicados en diferentes revistas y actas de conferencias. Ha editado o co-editado 14 libros y actas de conferencias en el area de computación soft.

Recibión su doctorado en Computer Science and Engineering de la Anna University, Chennai, India en 2017 y un ME y MCA de la Maharishi Dayanand University, Rohtak, Haryana, India en 2007 y 2004, respectivamente, así como un grado en Science de JLN Government College, Faridabad Haryana, India en 2001.

Es el editor de las series de libros Internet of Everything (IoE) : Security and Privacy Paradigm, CRC Press; Artificial Intelligence (AI): Elementary to Advanced Practices Series, CRC Press; IT, Management & Operations Research Practices, CRC Press; Bio-Medical Engineering: Techniques and Applications con Apple Academic Press y Computational Intelligence and Management Science Paradigm, (Focus Series) CRC Press.

Es redactor jefe de International Journal of Machine Learning and Networked Collaborative Engineering e International Journal of Hyperconnectivity and the Internet of Things (IJHIoT) y también co-editor de Ingenieria Solidaria Journal, editor asociado de International Journal of Information Retrieval Research.

Puedes saber más del autor visitando su sitio en Google.

Cecilia García Cena

(Fuente: Traducción y ligera elaboración propia de la ficha de autora en el libro 'Exoskeleton robots for rehabilitation and healthcare devices')

Cecilia García Cena
La doctora Cena es Profesora ayudante sobre Automatización y Robótica en la Universidad Politécnica de Madrid e investigadora en el Centro para Automatización y Robótica. Es profesora visitante en las Ecoles Universitaries Gimbernat en Cantabria y en Beihang University en Pekín. Entre 2004 y 2006 fue también profesora vistante en la Universidad Carlos III de Madrid.

Dirige las aplicaciones médicas robóticas en el Grupo de Investigación en Robots y Máquinas Inteligentes. Ha sido directora de proyectos nacionales de investigación y desarrollo y es investigadora en proyectos europeos.

Desde 2016 es evaluadora experta para temas de robótica en la Comisión Europea. Desde 2015 está fuertemente involucrada en el desarrollo de dispositivos médicos con aplicaciones clínicas y sociales.

Es autora de más de 60 publicaciones científicas internacionales. Tiene cuatro patentes, dos de ellas registradas internacionalmente.

Puedes saber más del autor visitando su perfil en LinkedIn.

Ficha técnica:

EDITORIAL: Springer
AÑO: 2020 
ISBN: 978-9811547317
PAGINAS: 104

Artículos de este blog relacionados