lunes, 29 de junio de 2020

Un sesgo de género visto desde el algoritmo


Mucho se habla de los sesgos en relación con la inteligencia artificial y el machine learning y con la necesidad de comportamientos éticos e incluso regulaciones con ella asociados.

Sin embargo, por desgracia, creo que muchos discursos, más o menos bienintencionados (o quizá no), carecen sin embargo de una base sólida para entender lo que sucede realmente.

Muchas veces me parece que la gente poco informada, se imagina una especie de maldad intrínseca en los algoritmos, o peor, una mala intención o falta de sensibilidad social, humana o ética de los ingenieros, desarrolladores o científicos de datos.

Y esa percepción me parece dolorosa e injusta. E incluso creo que es peligrosa, porque si queremos regular un fenómeno, lo primero que hay que hacer es entenderlo para no llegar a conclusiones equivocadas y decisiones desacertadas.

Leyendo el libro 'Introduction to Natural Language Processing' de Jacob Eisenstein me he encontrado con una buena explicación del autor que nos ilustra un caso concreto de sesgo explicado, eso sí, de forma científica y bien fundamentada.

Y me parece interesante y útil contemplar el sesgo, no desde fuera, no desde la argumentación simplista, vocinglera e incluso demagógica, sino desde dentro, desde el corazón mismo de la inteligencia artificial, desde el algoritmo, en este caso de procesamiento de lenguaje natural.

Pero antes, un poquito de contexto. 


Embeddings de palabras



Las redes neuronales, algoritmos habitualmente usados en procesamiento de lenguaje natural como en casi todas las ramas de la inteligencia artificial, funcionan a nivel matemático con vectores (una matriz unidimensional) y tensores (estos últimos una especie de generalización a espacio n-dimensional de las conocidas matrices para espacios bidimensionales).

En concreto, en el caso del procesamiento de lenguaje natural (NLP, 'Natural Language Processing') las palabras se suelen representar como un vector. Hay una forma sencilla de representar palabras de un espacio acotado mediante un vector: la codificación 'one-hot' en que, a cada palabra de un vocabulario le asigna un número entero y luego, se transforma en un vector en que el elemento del vector que corresponde a ese número adopta el valor 1 y el resto cero. Por ejemplo, si queremos representar un espacio de palabras con los colores de un semáforo 'rojo, 'amarillo' y 'verde' podríamos asignarles respectivamente los valores 'rojo'=0, 'amarillo'=1 y 'verde'=2 y eso se correspondería con usar el vector [1,0,0] para 'rojo', el [0,1,0] para 'amarillo' y el [0,0,1] para 'verde'. El problema de esta forma de codificar palabras es que, a poco que crezca el vocabulario que queremos representar, los vectores son enormes y muy dispersos (compuestos fundamentalmente de ceros).

Como alternativa se utilizan los denominados 'embeddings' de palabras en que, a cada palabra le hacemos corresponder un vector pero un vector denso (con pocos ceros) de números reales y con una dimensión mucho menor que el número de palabras posibles en el vocabulario.

Hay varias formas de asignar a cada palabra el vector que le corresponde en un 'embedding' pero, se suele intentar que tenga algún valor semántico para lo que se crean espacios geométricos donde la cercanía de dos palabras implica un significado parecido.



Semántica distribucional


Una forma de conseguir esos 'word embeddings' es aplicando lo que se denomina semántica distribucional ('distributional semantics') que parte del uso de palabras en su contexto en textos normales. Palabras que se usan de forma similar en contextos similares se entiende que tienen un significado parecido.  Proceden entonces a realizar análisis de distribuciones de palabras en diferentes contextos y, mediante aplicación de estadística, deduce unos vectores de números reales que asigna a cada palabra. En ese espacio n-dimensional, la hipótesis es que una cercanía geométrica implica cercanía semántica.

No vamos a entrar en el detalle de ese cálculo pero sí decir que lo cierto es que esta estrategia ha conseguido sorprendentes éxitos captando estructuras semánticas y analogías.

En la figura se muestra uno de esos mapas, en este caso bi-dimensional, en que se observan palabras relativas a parentescos, tratamientos y títulos nobiliarios.


Sesgo de género


La verdad es que parece casi mágico. Y desde luego, es efectivo. Pero, por desgracia, este tipo de tratamiento tiene el riesgo de los sesgos.

En su libro 'Introduction to Natural Language Processing', Jacob Eisenstein nos advierte que, en efecto, esta forma de actuar, tan ingeniosa y a la vez tan científica, puede llevar a sesgos.

Nos apunta a que hay palabras, como en la figura 'king' o 'queen' que, por sí mismas llevan implícito el género y, en ese sentido, no hay problema.

Pero si ahora incluyésemos palabras relativas a profesiones y las sometiésemos al mismo tratamiento, análisis estadísticos en contextos de uso, lo que cabe esperar es que profesiones tradicionalmente femeninas como 'nurse' (enfermera) o 'recepcionist' (azafata) figurasen cerca de palabras como woman' (mujer) mientras que profesiones tradicionalmente masculinas como 'skipper' (capitán), asignándoles, por tanto, cercanía semántica e implicando, por tanto, mayor relación de un género u otro con una profesión u otra. 

Y no se trata sólo una posibilidad, el autor apunta a estudios que han comprobado que ese sesgo se produce efectivamente, cosa que no resulta sorprendente, la verdad.


Los orígenes del sesgo


En este caso se ha ejemplificado el sesgo de género, pero no hay ningún motivo para pensar que no se puedan producir cualquier otro tipo de sesgos.

Sin embargo, me interesa mucho destacar por qué se produce el sesgo.

Hay que evitar las fantasías: el algoritmo en sí mismo es neutral y, por supuesto, no tiene voluntad ni intención. Ningún algoritmo la tiene: no son seres animados, no tienen mente, no tienen voluntad. Simplemente, aplica unas reglas asépticas, en este caso a unos textos de entrada.

Tampoco el desarrollador o científico de datos tienen ningún tipo de intencionalidad perversa o defecto ético. El algoritmo es perfectamente razonable, ingenioso, científico y ha demostrado sobradamente su efectividad y utilidad.

El sesgo, pues, no está ni en el algoritmo ni la persona que lo crea. El sesgo está en los datos de entrenamiento. Pero ni siquiera por una mala selección de los datos. No es que el científico de datos o ingeniero del conocimiento o lenguaje haya seleccionado malintencionadamente los datos para generar un resultado acorde con sus ideas. 

Nada de eso.

El sesgo está en el propio empleo que hacemos las personas en nuestro uso libre del lenguaje. Más aún, diría que el sesgo está en la propia realidad, nuestra realidad, nuestro comportamiento y nuestras asunciones, una realidad que nos demuestra que cómo actuamos y cómo nos expresamos no está en concordancia con los valores a los que aspiramos. En este caso, la realidad que contamos o cómo la contamos muestra un sesgo que nos gustaría que no existiera.

El algoritmo no es el culpable. El algoritmo sólo lo ha puesto de relieve.

Es importante entenderlo. Es importante evitar fantasías y demagogias y tener en cuenta cómo se producen los sesgos, de género o de lo que fueren, a la hora de gestionarlos y de adoptar decisiones éticas o regulatorias.

viernes, 26 de junio de 2020

La realidad de las interfaces cerebro-ordenador con Claude Clément

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es una revisión del estado del arte, aunque con vista al pasado y también al futuro, de las tecnologías usadas para la interacción entre dispositivos digitales y el sistema nervioso (tanto el cerebro como la médula espinal o ciertos nervios) y los dispositivos médicos activos implantables.

Se trata de una revisión orientada al campo sobre todo asistencial, y muy influenciada por la experiencia práctica del autor. Un análisis básicamente técnico, muy pegado a tierra, sin la más mínima concesión a la fantasía o la divagación y, quizá, quizá, algo escéptico e incluso pesimista.

El libro, de mediana extensión, se estructura en diez capítulos como sigue:
  • '1. Introduction:' que establece un poco las bases de lo que sigue, proporcionando una definición del campo de estudio y anunciando ya algunos dispositivos concretos agrupados por la visión histórica de pioneros, ejecutores y soñadores (pasado, presente y futuro) que usará en los capítulos finales del libro.

  • '2. From Concept to Patient:' Un capítulo que sorprende un poco porque, aunque teniendo siempre como telón de fondo los dispositivos médicos, abandona en buena medida el aparente objetivo del libro para centrarse en prácticas de gestión que, aunque evidentemente aplicables al campo del BCI, son realmente genéricas. Habla de elementos de dirección de proyectos como el modelo en cascada o la gestión de riesgos, la planificación o los costes. Luego analiza algunos elementos de contexto, como el entorno regulatorio, factores humanos, el entono sanitario, elementos de financiación, propiedad intelectual, etc.

  • '3. Targets of Neuro-Technologies:' Un capítulo largo pero muy interesante en que va presentando las diferentes formas y sobre todo equipos y dispositivos existentes para interactuar con el cerebro, la médula espinal, nervios y órganos concretos. Acompaña el texto con fotografías y esquemas que proporcionan una idea muy realista de lo existente

  • '4. The Human Body: A Special Environment:' Habla de los dispositivos médicos activos implantables y, sobre todo, las particularidades que presenta el cuerpo humano para llevar a él tecnología. Detalla, por ejemplo, el problema de la biocompatibilidad, la bioestabilidad, la corrosión, la limpieza, la esterilidad, la hermeticidad y el control de humedad, la robustez mecánica y eléctrica, la comunicación a través de tejidos y la alimentación de los implantes.

  • '5. Below and Above-The_neck:' Un breve capítulo repasando tipos de implantes subdividiéndolos en aquellos que se realizan bajo el cuello y, sobre todo, en la cabeza, incluyendo los intracraneales.

  • '6. Pioneers:' Inicio de una revisión histórica de los dispositivos médicos activos implantables, en que se comienza con los éxitos del pasado como los marcapasos.

  • '7. Doers:' Continuación de la revisión histórica, ahora con el estado del arte actual, incluyendo un estudio de oportunidades en materia de energía, miniaturización, conectividad, implantabilidad, comunicaciones ópticas, ultrasónicas o por radiofrecuencia, etc. También se analizan aspectos de la industrialización y cadena de suministro y se finaliza con una larga de descripción de áreas actuales de estudio y tendencias.

  • '8. Dreamers:' Una visión muy breve enfocada hacia el futuro pero incluyendo tendencias disruptivas con las que el autor no parece estar muy en sintonía. Se habla, por ejemplo, del 'hombre aumentado' y de implicaciones éticas.

  • '9. Conclusiones:' Un muy breve capítulo de cierre.

  • '10. Anexes:' Un conjunto heterogéneo de anexos sobre gestión de riesgos, sobre el modelo 'NeuroVirtual' y una guía de la FDA sobre interfaces cerebro-ordenador.

'Brain-Computer Interface Technologies: Accelerating Neuro-Technology for Human Benefit' es un libro que demuestra un profundo conocimiento de la materia por parte del autor y que ilustra muy bien, con esquemas y fotografías, todo tipo de dispositivos y equipos. Se proporciona mucha información valiosa, aunque quizá en ocasiones, demasiado prolija, y se proporciona, creo, una muy buena panorámica de la tecnología y soluciones existentes.

Echo en falta, eso sí, algo más de profundización en materias como el tratamiento de las señales procedentes del sistema nervioso y las enviadas al sistema nervioso y la algoritmia que pudiese existir en los dispositivos que denomina inteligentes. Es posible que estos temas sean menos relevantes en el campo en su conjunto, pero son lo que a mi me interesan especialmente y por eso me he quedado con las ganas de algo más de material en este sentido.

El autor busca, de forma muy clara, ser realista y prudente en un campo delicado por sus implicaciones y dificultades, tanto físicas como tecnológicas e incluso éticas. Sin embargo, en ese empeño, muy loable, en el rigor y el realismo, a veces cae, en mi opinión, en el extremo contrario y casi resulta en exceso conservador y pesimista, incluso un poco autosuficiente.

Un libro, pues, para informarse y aprender, pero no para ilusionar.

Claude Clément

(Fuente: Traducción y ligera elaboración propia de la ficha de autor en el libro 'Brain Computer Interface Technologies')

Claude Clément
Trabajando actualmente como freelance, hasta Diciembre de 2019 Claude Clément fue Chief Technical Officer para el Wyss Center for Bio and Neuro Engineering en Ginebra, Suiza. Ha sido fundador, presidente y miembro del comité ejecutivo de varias startups y pequeños negocios. Tiene un Máster en Ingeniería Eléctrica y Electrónica por el Swiss Federal Institute of Technology (EPFL) en Lausana y un MBA de HEC en la Universidad de Lausana, Suiza.

Claude comenzó su carrera en Investigación y Desarrollo para la industria relojera en el Grupo Swatch como jefe del grupo de desarrollo de transductores y actuadores. Entró en el mundo de las tecnologías médicas encabezando las actividades de diversificación de Swatch en el campo de las bombas de dispensación de fármacos programables wearables. A continuación estuvo 23 años en el campo de dispositivos médicos activos implantables, como director de Ingeniería de Fabricación en Intermedics (ahora Boston Cientific), como gerente de planta de las operaciones suizas de Medtronic, y más tarde como consultor para grandes compañías, fundamentalmente en el área de los marcapasos, y para varias startups innovadoras.

A partir de 1996, puso en marcha y desarrolló la fábrica altamente automatizada de Medtronic en el área de Lago Ginebra. Esta planta es la mayor instalación en Europa para el ensamblado de dispositivos médicos activos implantables, produciendo más de 2.000 marcapasos, desfibriladores y neuro estimuladores diarios. Hasta 2014, fue CEO de MyoPowers, una compañía startup que desarrolló un implante biomédico para el tratamiento de la incontinencia severa.

Puedes saber más del autor visitando su perfil en LinkedIn.

miércoles, 24 de junio de 2020

Simples y superficiales: ¿el conocimiento era esto?


Estamos en la era del conocimiento. Eso se supone. En eso confío. Y casi, casi, eso creo. 

Pero asoman algunos nubarrones en ese horizonte intelectual.

Vivimos en una era de altísima exposición a información. El alcance de internet, la omnipresencia de los smartphone y la explosión de las redes sociales y otros medios digitales, hacen que nos veamos a expuestos a un incesante flujo de información y de estímulos.

Eso podría llevarnos, eso nos debería llevar, a un mayor conocimiento. Es cierto que la información no es directamente conocimiento. Que para que se produzca el conocimiento tienen que existir un cierto procesamiento, una cierta digestión intelectual que obtenga conclusiones, ideas y directrices de futuro de esa exposición. Pero a más información parece que deberíamos generar más conocimiento ¿no?

Bueno, no del todo. Si la digestión no es buena, tal vez la información no genere conocimiento. Y parece que, en efecto, tenemos un cierto empacho, que el atracón de información no nos sienta del todo bien.


Superficiales


Hace ya unos años, Nicholas Carr denunciaba en su libro 'Superficiales' cómo la exposición a mensajes breves pero muy numerosos, está haciendo que nuestros cerebros y todo nuestro sistema cognitivo se adapten a la nueva situación. Y esa adaptación hace que, si, seamos capaces de procesar más mensajes y con cierta simultaneidad. Pero, a cambio, parece que perdemos capacidad para la concentración, para la reflexión, para la lectura profunda, para el flujo. Superficiales. Nos volvemos superficiales. No parece que esa sea una buena noticia de cara al conocimiento...


Simples



Estoy leyendo ahora mismo el libro 'Lo imprevisible' de la periodista Marta García Aller. Bastante al principio del libro, menciona una cita de Alvin Toffler en 'El shock del futuro' quien afirmaba que la saturación de información podría activar en las personas mecanismos de defensa, unos mecanismos de defensa que supondrían que, ante la imposibilidad de digerir tanta información, las personas optasen por la simplificación, como única forma de poder comprender el mundo. Pero esa simplificación podría suponer una reafirmación de prejuicios.

Alvin Toffler hacia ese planteamiento hace ya muchos años, nada menos que en 1970, pero cuando uno observa ciertas 'conversaciones' que se producen en twitter, cuando se contemplan fenómenos de exacerbación de extremismos y populismos en ámbitos sobre todo políticos, cuando se leen tantos y tantos eslóganes, cuando se nos ofrecen imágenes de revisionismos históricos absurdos, cuando se contempla tanto comportamiento simplista, uno tiende a pensar que el aviso de Alvin Toffler era acertado y que nos estamos volviendo simples. Simples. Nos volvemos simples. Eso tampoco parece una buena noticia para el conocimiento...


La sociedad del verdadero conocimiento


Simples y superficiales. ¿De verdad el conocimiento era esto?

Quiero pensar que no. Quiero creer que, por un lado, el beneficio de tanto dato y tanta información, los frutos que podemos obtener de su conocimiento y análisis superan con mucho algunos defectos y sesgos que se pudieran producir por el camino. Y quiero pensar que la abundancia de información, debería ser un signo de transparencia y libertad y que, también en la esfera social y política, los beneficios de la abundancia de información superan con creces, a los, espero, puntuales sesgos y extremismos.

Eso espero, pero tampoco estoy seguro. Y, en cualquier caso, conseguir esos beneficios y eliminar la superficialidad y el simplismo, implica responsabilidad y esfuerzo.

A nivel individual deberíamos, por un lado, esforzarnos en acceder a información con diferentes puntos de vista, adquirir distancia y cierta neutralidad y ejercer el juicio crítico. Y deberíamos también esforzarnos en adquirir conocimiento tranquilo por otros medios, mediante las lecturas profundas u otras actividades de concentración y desarrollo intelectual.

Y a nivel social y público, deberíamos buscar mecanismos que favoreciesen la moderación, la verdad y ese mismo juicio crítico. Aunque debo confesar, que esto no tengo claro del todo cómo se debería hacer.

Simples y superficiales.

No, El conocimiento no es eso. Y la sociedad del conocimiento no puede ser eso.

Mientras pensamos o promovemos una acción social de mayor calado, esforcémonos, al menos, por la responsabilidad individual, por nuestro propio desarrollo, por nuestro propio conocimiento.

lunes, 22 de junio de 2020

Algoritmos y correlación de datos: la casi imposible privacidad


Uno de los evidentes, conocidos y ampliamente comentados riesgos del mundo digital, es la dificultad para defender la privacidad y la intimidad, para mantener al margen de la recolección, análisis y uso por parte de terceros, la información que nos concierne y que preferiríamos que no fuese conocida o, al menos, no de forma pública o no con fines comerciales, sociológicos o incluso políticos.


Los datos de carácter personal


Desde hace muchos años existe el concepto de datos de carácter personal, aquellos que más tienen que ver con nuestra identificación, con nuestras opciones en materia ideológica, religiosa, sexual etc o con nuestra situación de salud. Y desde hace muchos años existen leyes y reglamentos que protegen esos datos y que cuidan de que no se haga un mal uso de ellos.

Europa ha sido una adelantada en materia de protección de datos con el famoso GDPR, una reglamentación exigente en la línea de no permitir el uso de datos sin que la persona interesada haya dado su consentimiento explícito. 

Hay flancos, no obstante, muy difíciles de proteger incluso con esta reglamentación. Todos tenemos la experiencia de aceptar condiciones de uso sin haberlas leído. En general sabemos, o intuimos, que en esas condiciones de uso estamos admitiendo una explotación de nuestros datos seguramente por encima, o muy por encima, de lo que realmente nos gustaría que se produjese. Pero, aparte de lo engorroso que resulta la lectura del clausulado de las condiciones de uso, también sabemos que 'no pasar por el aro' de muchas de estas condiciones te deja bastante fuera del mundo digital actual, quedando al margen de algunas de las aplicaciones y servicios más populares.


La correlación


Pero hay un riesgo mucho menos conocido y que me parece de un aún mayor difícil control. Un riesgo que nace de la correlación de datos.

La correlación, dicho de forma muy sencilla, es el hecho de que dos o más fenómenos tiendan a producirse de una forma simultánea y/o evolucionar con cierto paralelismo.En algunas ocasiones, la correlación se produce por causalidad, porque un fenómeno es el causante de otro (por ejemplo, podemos pensar que calor y consumo de helados son fenómenos correlados porque el calor es la causa de que consumamos más helados para refrescarnos). Pero en otras ocasiones no existe una causalidad sino que ocurren a la vez por estar ambos causados por un tercer fenómeno o por interrelaciones complejas y a veces desconocidas pero que dan como resultado esa evolución paralela. 


Patrones de comportamiento


Por suerte o por desgracia, los seres humanos somos predecibles, mucho más predecibles de lo que pensamos y nos comportamos con arreglo a patrones bastante identificables. Existen patrones de comportamiento debidos no ya a factores constitutivos y evolutivos, sino también a efectos culturales, de educación o incluso de imitación o asimilación al grupo que hace que las personas de una misma edad, género, ideología, clase social, opción religiosa, etc, tendamos a comportarnos de formas similares.

La consecuencia que esto tiene es que, incluso sin proporcionar de forma explícita información sobre nosotros mismos, incluso sin aportar nuestra información de carácter personal, de alguna forma nuestros comportamientos 'nos delatan'. Existe correlación entre nuestras características y opciones personales y nuestros comportamientos.


Algoritmos y correlación


Y hoy en día, esos comportamientos dejan trazas, dejan información, abundante información,  en las redes sociales, en nuestros teléfonos móviles y en tantos y tantos registros de datos de los que podemos o no ser conscientes. Unos registros de datos no protegidos o sólo débilmente protegidos porque son públicos y porque no recogen información personal o al menos no información que la persona no haya aportado voluntariamente.

Y como esos comportamientos correlan con nuestra naturaleza, nuestro estado, nuestras opciones, nuestra ideología, es posible, a través de los potentes algoritmos actuales, obtener información muy precisa sobre cada uno de nosotros. Uno de los aspectos en que más destaca el machine learning es, precisamente, el reconocimiento de patrones. No en vano, mucho antes de que se acuñase el término 'machine learning', ya se hablaba e investigaba en 'pattern matching' de donde provienen muchos e los algoritmos actuales del machine learning. 


La casi imposible privacidad


Y si nuestro comportamiento está sujeto a patrones que delatan nuestras opciones personales. Y si esos comportamientos dejan trazas en forma de datos y si existen algoritmos capaces de detectar esos patrones, la protección explícita de nuestros datos personales, incluso aunque fuese efectiva, puede estar dejando un flanco muy débil.

Y no es un flanco, creo, nada fácil de proteger, Estamos en la obligación de buscar fórmulas técnicas, éticas y legales para conseguir esa protección. Pero me temo que esas fórmulas, en todo caso, protegerían de un mal uso por parte de ciudadanos, empresas y administraciones con intereses, digamos, normales. Intereses que pueden ser comerciales o incluso de curiosidad, pero siempre dentro del margen de una cierta honestidad y arreglo a la ley. ¿Pero cómo protegernos frente a 'los malos', a los realmente 'malos'? ¿Cómo poner barreras ante gobiernos autoritarios, ante terroristas o ante el crimen organizado? En esos casos, ni la ley ni, por supuesto, la ética, constituyen barreras eficaces. Y técnicamente, tampoco veo ahora mismo un medio de protección fiable.

¿Qué hacemos?

viernes, 19 de junio de 2020

Exoesqueletos y rehabilitación con Cardona, Solanki y García Cena

'Exoskeleton Robots for Rehabilitation and Healthcare Devices' es un libro breve, poco más de 100 páginas, y coral, con variedad de autores aunque en portada lo firmen tres, que aborda la temática de los exoesqueletos aunque, eso sí, desde un perspectiva bastante acotada al campo de su uso en rehabilitación.

El libros se estructura en cinco capítulos, como sigue:
  • Robotics for Rehabilitation: A State of the Art: Un breve capítulo introductorio en que define el concepto de exoesqueleto y explora su uso tanto en el caso de extremidades superiores como inferiores.

  • Sensors and Motion Systems: Un capítulo, quizá algo disperso en sus contenidos. Su tema principal son los sensores de los cuales empieza hablando de una forma muy genérica y en ámbitos diferentes de la rehabilitación, para luego abordar ya, pero sin mucho detalle, su uso en temas médicos y asistenciales. Y finaliza con un tema diferente como son los tipos de ayudas y dispositivos usados como ayuda a la movilidad: andadores, sillas de ruedas normales y eléctricas y algunas soluciones más avanzadas y más cercanas al mundo de los exo esqueletos y reflejadas en productos comerciales como el KartBot o los Hoverboards.

  • Gait Capture Systems: Se describen una serie de sistemas para obtener información acerca de la marcha de una persona.

  • Technologies for Therapy and Assistance of Lower Limb Dissabilities: Sit to Stand and Walking: Un capítulo algo más extenso donde se describen soluciones para el caso de problemas en las extremidades inferiores. Se comentan algunas causas posibles de esos problemas, la biomecánica del acto de incorporarse desde la posición de sentado o de andar, algunas terapias tradicionales y, finalmente, la terapia con robots.

  • Adaptable Robotic Platform for Gait Rehabilitation and Assitance: Design Concepts and Applications: Describe las características de la plataforma creada por el proyecto AGoRA para la ayuda y rehabilitación de la marcha.
'Exoskeleton Robots for Rehabilitation and Healthcare Devices' tiene entre sus virtudes el ser de los pocos libros existentes sobre exoesqueletos (al menos a mi me ha costado encontrar literatura al respecto). A cambio echo en falta una descripción más amplia y abarcadora de la disciplina, y quizá una mayor profundidad en los aspectos técnicos tanto mecánicos cómo sobre todo, en materia de detección y tratamiento de señales y en el control y eventual inteligencia de este tipo de equipos.

Es un comienzo, pero me haría falta bastante más material.

Manuel Cardona

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Manuel Cardona
Manuel Cardona posee un grado en Ingeniería Eléctrica por la Universidad de Sonsonate (USO), El Salvador, en 2004 y un Máster en Automatización y Robótica por la Universidad Politécnica de Madrid, España, en 2008.

Desde 2007 a 2008, y en 2011, fue Investigador Ayudante en el grupo de investigación en Robótica y Máquinas Inteligentes en la Universidad Politécnica de Madrid, España. Tiene un posgrado en Investigacion Científica y en Gestión del Innovación. Actualmente, es doctorando en automatización y robótica en la Universidad Politécnica de Madrid.

Desde 2014, ha sido profesor y director de los grupos de investigación en Robótica y Máquinas Inteligentes y en Visión Artificial, ambos en la Escuela de Ingeniería en la Universidad Don Bosco, El Salvador. Es autor de más de veinte artículos de revisión entre pares, ha editado dos libros con Springer y ha impartido más de 55 conferencias. Sus intereses en investigación incluyen robótica rehabilitadora, biomecánica, cinemática y dinámica de robots serie y paralelo, sistemas empotrados, visión artificial e inteligencia artificial y su aplicación en sistemas robóticos.

Es miembro senior del IEEE, pertenece a la Robotics and Automation Society (RAS), la Aerospace and Electronic Systems Society (AESS) y la Education Society (EdSOC). Es revisor de la revista EEE Latin America Transactions Journal, la Neural Computing and Applications, Springer Journal y la IEEE Sensors Journal.

Puedes saber más del autor visitando su página oficial.

Vijender Kumar Solanki

(Fuente: Traducción y ligera elaboración propia de la biografía en su sitio Google)

Vijender Kumar Solanki
El doctor Vijender Kumar Solanki es profesor asociado en Computer Science & Engineering en CMR Institute of Technology (Autonomous), Hyderabad, TS, India.Tiene más de 10 años de experiencia académica em seguridad de red, IoT, Big Data, Smart City e IT. Antes de su rol actual, estuvo asociado al Apeejay Institute of Technology, Greater Noida, UP, KSRCE (Autonomous) Institution, Tamilnadu, India y al Institute of Technology & Science, Ghaziabad, UP, India. Es miembro de la ACM y Senior Member del IEEE.

Ha sido autor o co-autor de más de 50 atículos de investigación publicados en diferentes revistas y actas de conferencias. Ha editado o co-editado 14 libros y actas de conferencias en el area de computación soft.

Recibión su doctorado en Computer Science and Engineering de la Anna University, Chennai, India en 2017 y un ME y MCA de la Maharishi Dayanand University, Rohtak, Haryana, India en 2007 y 2004, respectivamente, así como un grado en Science de JLN Government College, Faridabad Haryana, India en 2001.

Es el editor de las series de libros Internet of Everything (IoE) : Security and Privacy Paradigm, CRC Press; Artificial Intelligence (AI): Elementary to Advanced Practices Series, CRC Press; IT, Management & Operations Research Practices, CRC Press; Bio-Medical Engineering: Techniques and Applications con Apple Academic Press y Computational Intelligence and Management Science Paradigm, (Focus Series) CRC Press.

Es redactor jefe de International Journal of Machine Learning and Networked Collaborative Engineering e International Journal of Hyperconnectivity and the Internet of Things (IJHIoT) y también co-editor de Ingenieria Solidaria Journal, editor asociado de International Journal of Information Retrieval Research.

Puedes saber más del autor visitando su sitio en Google.

Cecilia García Cena

(Fuente: Traducción y ligera elaboración propia de la ficha de autora en el libro 'Exoskeleton robots for rehabilitation and healthcare devices')

Cecilia García Cena
La doctora Cena es Profesora ayudante sobre Automatización y Robótica en la Universidad Politécnica de Madrid e investigadora en el Centro para Automatización y Robótica. Es profesora visitante en las Ecoles Universitaries Gimbernat en Cantabria y en Beihang University en Pekín. Entre 2004 y 2006 fue también profesora vistante en la Universidad Carlos III de Madrid.

Dirige las aplicaciones médicas robóticas en el Grupo de Investigación en Robots y Máquinas Inteligentes. Ha sido directora de proyectos nacionales de investigación y desarrollo y es investigadora en proyectos europeos.

Desde 2016 es evaluadora experta para temas de robótica en la Comisión Europea. Desde 2015 está fuertemente involucrada en el desarrollo de dispositivos médicos con aplicaciones clínicas y sociales.

Es autora de más de 60 publicaciones científicas internacionales. Tiene cuatro patentes, dos de ellas registradas internacionalmente.

Puedes saber más del autor visitando su perfil en LinkedIn.

Ficha técnica:

EDITORIAL: Springer
AÑO: 2020 
ISBN: 978-9811547317
PAGINAS: 104

Artículos de este blog relacionados

miércoles, 17 de junio de 2020

Algunas preguntas éticas en relación con las interfaces cerebro-ordenador


Estamos cada vez más en posesión de una serie de tecnologías que desafían nuestra concepción del mundo y, sobre todo, nuestra concepción de nosotros mismos como como seres humanos. Una serie de tecnologías que, por tanto, exigen una reflexión sobre aquello que deseamos y aquello que no, sobre aquello que consideramos admisible y aquello que no.

Solemos pensar,  en esa línea, por ejemplo, en la inteligencia artificial o en la edición genómica, dos de la tecnologías que incluso se entienden como integrantes del concepto de indutria 4.0.

Pero puede que la lista no acabe aquí. Mucho menos conocidas, seguramente aún con mucho recorrido de progreso, existen las tecnologías de interfaz cerebro-ordenador (BCI, 'Brain Computer Interface'), aquellas que consiguen interconectar nuestro sistema nervioso, incluyendo al cerebro, con sistemas digitales.

Hoy en día esa tecnología se usa. ante todo, en tareas de rehabilitación de pacientes con limitaciones físicas congénitas o debidas a accidentes. Quizá su desarrollo, aunque admirable, no ha llegado todavía plenamente a la 'zona de peligro'. En parte por las dificultades intrínsecas y por nuestro todavía escaso conocimiento real del cerebro, y en otra parte, por la vigilancia regulatoria a que están sometidas este tipo de tecnologías sanitarias. 

Sin embargo, no parece fuera de nuestro alcance una detección más detallada de las ondas y señales que emite el cerebro y su análisis, probablemente mediante técnicas del campo de la inteligencia artificial. Quizá algo más lejana parece una estimulación 'fina', certera y precisa, del cerebro...pero no me atrevería a calificar de imposibilidad ese objetivo.

Una interacción profunda y precisa de máquinas digitales con el cerebro abre unas posibilidades inmensas, unas maravisoolas y otras aterradoras, un mundo realmente nuevo del que quizá no todo sea deseable.

En su libro 'Brain-Computer Interface technologies', Claude Clément se hace algunas preguntas, para las que reconoce no tener respuesta y que exceden lo tecnológico para situarse en el campo social y sobre todo ético. Estas son sus preguntas:

  • ¿Estamos yendo demasiado lejos?
  • ¿Hemos ido ya demasiado lejos?
  • ¿Tenemos derecho a interconectar directamente con el cerebro?
  • ¿Vamos a perder el control?
  • ¿Tomará la inteligencia artificial el lugar de nuestro pensamiento natural?
  • ¿Vamos a perder la privacidad?
  • ¿Es el Big Data una herramienta para la mejora o para nuestro control?

Una tecnología BCI plenamente desarrollada sería el sueño del transhumanismo más extremo y la puerta abierta a fantasías como unir nuestra mente a la 'nube', a una mente colectiva e, incluso, a una supuesta eternidad de la mente.

Estamos, creo, tecnológicamente muy lejos de que esas fantasías sean posibles, supuesto que alguna vez sean alcanzables,  pero, por si alguna vez se hacen realidad, a lo mejor es el momento, en efecto, de irnos haciendo ya algunas preguntas...

lunes, 15 de junio de 2020

El misterio del cerebro y la metáfora computacional


El funcionamiento del sistema nervioso en general, y del cerebro muy en particular, es uno de los más grandes y apasionantes misterios a que se enfrenta la ciencia... y nuestra curiosidad.

Mucho hemos avanzado en ese conocimiento desde los trabajos de nuestro Nobel Santiago Ramón y Cajal. En los últimos años, por ejemplo, se ha avanzado, mediante el uso de técnicas como la fMRI en hacer una suerte de 'mapa' del cerebro, identificando con cierta nitidez que áreas del mismo intervienen en diferentes funciones o son excitadas ante ciertos estímulos. Pero aún así, estamos lejos de comprender realmente la forma en que se producen los pensamientos y no digamos nada las emociones.

Desde hace décadas, desde la generalización de los computadores digitales, ha existido una especie de inspiración mutua entre el campo de la neurociencia y de la computación. Una inspiración o una metáfora que hace que, por un lado, lo que conocemos sobre el cerebro y el sistema nervioso inspire algunos modelos computaciones, siendo el caso más típico el las redes neuronales artificiales, situadas en el corazón de muchos de los avances más espectaculares que vivimos hoy día en el campo de la Inteligencia Artificial. Y también existe, quizá en menor medida, la idea de aplicar la metáfora en la dirección contraria una cierta tentación de intentar imaginar el funcionamiento del cerebro como si de una especie de computador se tratase.

En el caso de la inspiración de modelos computacionales, la metáfora ha sido útil y fértil, ya que gracias a ella han surgido las redes neuronales y el deep learning. En el sentido contrario, aplicación de la metáfora computacional al cerebro, no tengo claro que se haya conseguido ningún resultado práctico.

Creo que, en el fondo, no sabemos lo suficiente del cerebro como para evaluar con exactitud hasta donde llega la metáfora y hasta dónde existe un paralelismo real que permita usos científicos o ingenieriles de ese paralelismo. Pero, precisamente por ese desconocimiento, lo más prudente es pensar que la metáfora es solo eso, una metáfora, y no esperar de ella más que inspiración o un modelo descriptivo que pueda ser útil en algún momento a efectos de divulgación o entendimiento. 

He finalizado recientemente la lectura del libro 'Brain-Computer Interface Technologies' de Claude Clément y este autor se muestra muy renuente, casi escéptico y combativo, frente a la más mínima fantasía o especulación en materia tan delicada como es la interacción máquina-cerebro, que constituye el tema de su libro. Y así, bastante al principio, ya nos previene contra la metáfora aplicada en la dirección computación->cerebro y nos dice:

We realize now that we should not compare the brain to a computer


Y remata, para el específico caso de las neuronas, diciendo:

Neurons do not function as any electronic component.


En el caso de esta última frase, no menciona específicamente las redes neuronales artificiales, pero resulta difícil no imaginar que es en ellas en lo que está pensando al hacer esta afirmación. Y lo cierto es que, además, las redes neuronales artificiales, aunque se inspiraron en su origen en el funcionamiento de las neuronas y el sistema nervioso, y aunque por ejemplo el perceptrón muestra bastante clara esa inspiración, los avances del deep learning actual se basan más en los avances matemáticos y en el criterio de efectividad para resolver problemas que en una imitación del cerebro. No parece, por ejemplo, al menos hasta donde a mi se me alcanza, que una red de convolución, tan usada en la visión artificial, esté implementando un mecanismo observado en las neuronas reales ni en el funcionamiento de la retina.

Sea como fuere, la enseñanza es que, aunque la metáfora y la inspiración mutuas pueden ser interesantes y en algún caso fértiles, debemos tener claro cuando estamos hablando de una metáfora o inspiración y cuándo de un modelo real y, actualmente, parece que estamos más cerca del campo de la metáfora que del modelado.

Para estar más seguros, deberíamos avanzar más en la resolución del gran misterio: el funcionamiento del cerebro. Pero ese es un misterio que parece que se nos va a resistir bastante tiempo. Aunque él se refiere específicamente a la interacción cerebro-computador, la siguiente frase del mismo autor,  Claude Clément, nos puede servir como cierre con llamada a la prudencia:

We should also realize that we should remain modest in our conquest of the brain


En efecto, nos queda mucho por aprender sobre el cerebro y su funcionamiento. Y parece que espera un largo trayecto antes de llegar a ese conocimiento. Mientras tanto, disfrutemos del viaje y de la metáfora.

viernes, 12 de junio de 2020

El futuro acelerado y convergente de Peter Diamandis y Steven Kotler

'The future is faster than you think' es la culminación de una trilogía compuesta por los anteriores libros 'Abundance' y 'Bold', una visión del futuro optimista, tecnológica e innovadora que apuesta por un mundo de abundancia de recursos y posibilidades. La tesis fundamental de este libro es que la convergencia de una serie de tecnologías, ya de por sí transformadoras y exponenciales a nivel individual, abre un futuro brillante de progreso, innovación y disrupción.

El libro se compone de catorce capítulos estructurados en tres partes, como sigue:
  • 'Part One: The Power of Convergence' Es la parte más orientada a explicar las tesis de los autores, identificando las tecnologías exponenciales y los factores de convergencia y aceleración.

    • 'Chapter One: Convergence' Un capítulo donde se afirman ya las principales tesis del libro: la existencia de tecnologías exponenciales y la importancia de la convergencia de esas tecnologías. Como ilustración habla de diferentes e innovadoras opciones para el transporte como los coches voladores, los vehículos autónomos o Hyperloop e incluso una solución radical como son los avatares.

    • 'Chapter Two: The Jump to Lightspeed: Exponential Technologies Part I' Una primera panorámica de tecnologías exponenciales que incluye la computación cuántica, la Inteligencia Artificial, nuevas redes como 5G, los sensores y la robótica.

    • 'Chapter Three: The Turbo-Boost: Exponential Technologies Part II' Segundo bloque de tecnologías exponenciales que, en esta ocasión incluye la realidad virtual y aumentada, la impresión 3D, blockchain, ciencia de los materiales y nanotecnología y biotecnología.

    • 'Chapter Four: The Acceleration of Acceleration' Capítulo en que se analizan las fuerzas que provocan la aceleración. Se identifican tres: el incremento de la capacidad computacional, la convergencia de tecnologías y una tercera que en realidad es un conjunto de siete fuerzas que son las que se desarrollan específicamente en este capítulo y que son, en concreto: ahorro de tiempo, disponibilidad de capital, desmonetización, más genios, abundancia de comunicaciones, nuevos modelos de negocio y vidas más largas.

  • 'Part Two: The Rebirth of Everything' Una revisión de como esa convergencia de tecnologías exponenciales está transformando diferentes sectores y áreas de actividad 

    • 'Chapter Five: The Future of Shopping' Comienza el análisis sectorial con el mundo del retail y presenta algunas innovaciones como las plataformas, la inteligencia artificial, la eliminación de las líneas de caja, la introducción de elementos robóticos o la impresión 3D y concluye que la última esperanza de la tienda es convertirse en un centro de experiencias convergente que va más allá de la mera compra.

    • 'Chapter Six: The Future of Advertising' Un capítulo algo más breve en que habla de búsquedas para luego introducir la realidad aumentada y la hiper-personalización y mezclando todo ello predice la posible desaparición de la publicidad tal y como la entendemos.

    • 'Chapter Seven: The Future of Entertainment' Nos habla de un ocio digital, empezando por el caso Netflix pero avanzando hacia escenarios donde cualquier persona puede crear contenidos, hacia la adopción de roles activos, la introducción de la realidad virtual y los hologramas y acabando con temas como la computación afectiva.

    • 'Chapter Eight: The Future of Education' Un capíitulo corto para entrever cambios en la educación y que toca temas como la auto-educación o el uso de realidad virtual / aumentada.

    • 'Chapter Nine: The Future of Healthcare' Cambios en el cuidado de la salud done habla de temas como el uso de impresión 3D, la edición genómica, los autodiagnósticos, la robotización de la cirugía, o la medicina celular.

    • 'Chapter Ten: The Future of Longevity' Más que un sector, en este caso el tema es la posibilidad de evitar el envejecimiento y alargar la vida. Primero identifica nueve causas por las que envejecemos y luego apunta a algunos avances para evitar ese envejecimiento, por ejemplo, en materia de farmacia.

    • 'Chapter Eleven: The Future of Insurance, Finance, and Real Estate' en que se trata los sectores de banca, seguros e inmobiliario y se apuntan ideas como el 'crowdassurance', el empleo de blockchain, inteligencia artificial o realidad virtual.

    • 'Chapter Twelve: The Future of Food' Pone énfasis en la ineficiencia que supone la generación actual de alimentos y en las posibilidades de mejorar radicalmente esa eficiencia.

  • 'Part Three: The Faster Future' Una visión holística al futuro.

    • 'Chapter Thirteen: Therats and Solutions' Un capítulo para echar un vistazo a las posibles amenazas y también las posibles soluciones para todo el avance conseguido. Habla del problema del agua, del cambio climático, del almacenamiento de energía y energías renovables, vehículos eléctricos, biodiversidad, desempleo, etc

    • 'Chapter Fourteen: The Five Great Migrations' Mira hacia un futuro unos años más allá e identifica cinco grandes movimientos de personas: las dos primeras más tradicionales e incluso del pasado, las tres últimas realmente futuristas: migraciones debidas al clima, migración hacia las ciudades, migración a mundos virtuales, migración al espacio, migración hacia la meta-inteligencia.

'The future is faster than you think' no es, al menos a mi no me lo parece, un libro de conceptos sino, más bien, un libro para abrir la mente e inspirar, para intuir nuevos fenómenos y nuevas tecnologías aunque, seguramente, sin llegar realmente a entenderlos.

El libro sigue un discurso, muy habitual por lo demás en las obras y charlas de autores de origen nortemericano, muy centrado en las historias, las curiosidades, los ejemplos y las anécdotas, más que en una exposición ordenada de conceptos o teorías. Un estilo que suele ser eficaz para atraer e incluso mantener la atención pero que deja tras de sí ideas poco nítidas.

Eso convierte a 'The future is faster than you think', al menos en mi opinión, en un buen libro para la pura lectura, pero no para la consulta o referencia y dependiendo de lo que el lector busque en él, le satisfará más o menos.

Peter Diamandis

(Fuente: Ficha de conferenciante en Thinking Heads)

Peter Diamandis
Peter Diamandis es el presidente y CEO de la X PRIZE, Fundación, que lidera el mundo en el diseño y lanzamiento de grandes premios de incentivo para impulsar avances radicales en beneficio de la humanidad. Mejor conocido por el PREMIO Ansari X de $ 10 millones para vuelos espaciales privados y el PREMIO X de Progressive Automotive X de $ 10 millones para automóviles equivalentes de 100 millas por galón, la Fundación ahora está lanzando premios en Exploración, Ciencias de la vida, Energía y Educación. Diamandis también es un líder internacional en el ámbito del espacio comercial, ya que fundó y dirigió muchas de las empresas líderes en este sector. Como cofundador y presidente de la Singularity University, una institución con sede en Silicon Valley se asoció con la NASA, Google, Autodesk y Nokia, Diamandis asesora a las principales empresas del mundo sobre cómo utilizar tecnologías exponenciales e incentivar la innovación para acelerar drásticamente sus objetivos comerciales.

Además, Diamandis es cofundador y vicepresidente de Human Longevity Inc. (HLI), una compañía de diagnóstico y terapéutica basada en la terapia celular y la genómica centrada en la prolongación de la vida humana sana. En sus presentaciones principales, Diamandis se centra en la importancia de la innovación y mira hacia el futuro al explicar cómo las tecnologías que avanzan exponencialmente transformarán nuestras empresas, nuestras industrias, nuestros gobiernos y nuestras vidas en los próximos 5 a 10 años. Diamandis es el autor de Abundance: The Future is Better than You Think (febrero de 2012) que muestra cómo las tecnologías exponenciales, junto con el movimiento de bricolaje y la conectividad en línea de los "millones en aumento" permitirán una era de abundancia global que proporciona agua, energía, alimentos, vivienda, educación y salud en una disponibilidad sin precedentes para la humanidad. También es autor de BOLD, How to go BIG, Create WEALTH e Impact the World (febrero de 2015), una guía práctica para usar tecnologías exponenciales, pensamiento instantáneo y herramientas de multitud para crear riqueza a la vez que impacta positivamente las vidas de billones de personas.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @PeterDiamandis.

Steven Kotler

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Steven Kotler
Steven Kotler es un autor superventas y periodista laureado. Como director ejecutivo de Flow Research Collective, es uno de los mayores expertos mundiales en alto rendimiento.

Su trabajo 'Stealing Fire' ha sido un best seller y nominado al premio Pulitzer. Ilustra la revolución subterránea en rendimiento máximo que se está convirtiendo rápidamente en 'mainstream', alimentando una economía de un trillón de dólares y forzándonos a repensar cómo lideramos unas vidas más satisfactorias, productivas y significativas.

Este trabajo fue precedido por dos libros sobre tecnología, 'Tomorrowland' que trata de esos innovadores inconformistas que transformaron las ideas de la ciencia-ficción en hechos y 'Bold' que fue denomimado como "un roadmap visionario hacia el cambio" poor Bill Clinton y que se mantuvo varias semanas en lo más alto de las listas de best-seller de New York Times y Wall Street Journal.

Su libro anterior, 'The Rise of Superman' fue uno de los más comentados en 2013 y el primer texto en alcanzar la lista de best-seller de The New York Times en las categorías de deportes, ciencia, psicología y negocios simultáneamente. En él, Steve decodifica la ciencia del flujo, del estado óptimo de conciencia donde nos sentimos perfectos y rendimos al máximo nivel.

Si 'The Rise of Superman' explora los límites de las posibilidades individuales, 'Abundance' explora los límites de las posibilidades de la sociedad, descomponiendo cuatro fuerzas emergentes que confieren a la humanidad el potencial para elevar significativamente los estándares globales de vida, a lo largo de los próximos 20 o 30 años. 'Abundance' se mantuvo 10 semanas en lo más alto de la lista de best-seller de The New York Times y apareció en cuatro prestigiosas listas de libros del año.

'A Small, Furry Prayer', el libro de Steven sobre las relaciones entre humanos y animales, fue un superventas nacional y fue nominado al premio Pulitzer. 'West of Jesus' que examina la neurobiología de la experiencia espiritual, fue finalista de Pen/West, y su novela 'The Angle Quickest For Flight' ganó el premio William L. Crawford IAFA Fantasy.

El trabajo de Steven ha sido traducido a más de 40 idiomas y aparecido en más de 100 publicaciones, incluyendo The New York Times, Atlantic Monthly, Wall Street Journal, Forbes, Wired y TIME. También aparece con frecuencia en radio y televisión y da charlas frecuentes sobre rendimiento humano, tecnología disruptiva e innovación radical.

Steven es también co-fundador de Creating Equilibrium una conferencia/concierto aceleradora de innovación enfocada en resolver problemas medioambientales críticos y junto con su mujer, la autora Joy Nicholson, Steven es co-fundador de Rancho de Chihuahua, un hospicio para cuidados especiales para perros en las montañas del norte de México.

Tiene un grado por la Universidad de Wisconsin y Máster por la Johns Hopkins University y, siempre que le es posible, se le puede encontrar descolgándose por las montañas a toda velocidad.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @steven_kotler.

Ficha técnica:

EDITORIAL: Simon & Schuster
AÑO: 2020 
ISBN: 978-1982109660
PAGINAS: 375

Artículos de este blog relacionados

miércoles, 10 de junio de 2020

Una definición conservadora de exoesqueleto


Por fin, llevaba meses buscando el hueco, he podido dedicar algún tiempo a comenzar a leer e informarme sobre dos temas largamente pospuestos. Por un lado los exoesqueletos y, por otro, un tema que entiendo se solapa al menos en una pequeña proporción como es el caso de las interfaces cerebro-computador.

Mi curiosidad e interés es de naturaleza amplia: deseo conocer el estado del arte de la tecnología y las aplicaciones. Me interesan hardware y software. Pero debo reconocer que me atrae muy especialmente, la interfaz entre sistema nervioso (especialmente cerebro) y máquinas digitales y más especialmente todavía, la tecnología existente para 'entender' las señales procedentes del cerebro y la eventual aplicación de inteligencia artificial en esa labor.

Y aunque me interesa, y mucho, el estado actual, también quisiera conocer posibilidades realistas de futuro y cómo estamos de cerca o de lejos, desde el punto de vista tecnológico, de posibles visiones transhumanistas.

Lo cierto es que los dos libros que he leído sobre el tema, dan unas visiones bastante conservadoras y muy pegadas a tierra y la realidad actual y más centradas en los aspectos de hadrware o de su aplicación médica, que la parte de control, inteligencia y visión de futuro.

Lo primero que he leído es el libro 'Exoskeleton Robots for Rehabilitation and Healthcare Devices' de varios autores pero que lleva la firma de Manuel Cardona (El Salvador), Vijender Kumar Solanki (India) y, para mi sorpresa e ilusión, la española Cecilia E. García Cena.  Se trata de un libro coral y cortito, orientado, como el título anticipa, a su aplicación en rehabilitación y donde no se dedica mucho espacio al tema de la señal y el control.

Me quedo, eso sí, con la mención de dos tecnologías para acceder a las señales del cerebro/sistema nervioso, la Electromiografía (EMG) y la Electroencelografía (EEG), y con una definición que proporcionan de exoesqueleto, a saber:

An exoskeleton is an electromecanical device that can be used by a person to increase its physical abilities, assist in disability cases or assist in therapeutical rehabilitation cases.

Una definición que entiendo perfectamente correcta, pero quizá algo contenida, y orientada, claro está, a la visión sanitaria y de rehabilitación (sólo lo de incrementar las capacidades físicas permiten intuir otras opciones) y a su visión actual.

De todas formas, ahí queda registrada la definición... y continuaré explorando y dejando en este blog rastros de esa exploración.

lunes, 8 de junio de 2020

Siete fuerzas para acelerar el progreso y la innovación


He leído hace poco el último libro de Peter Diamandis y Steven Kotler titulado 'The Future is faster than you think'.

Se trata de una visión sobre el futuro (un futuro que en parte ya es presente) optimista y ambiciosa, un futuro en que la tecnología juega un papel crucial y un futuro en que las innovaciones y disrupciones se aceleran hasta límites insospechados.

¿Qué fuerzas, según estos autores, impulsan ese progreso y esa innovación.?

Pues identifican tres grandes fuerzas.

Por un lado el crecimiento exponencial de la capacidad de computación y de toda una serie de tecnologías que han identificado antes entre las que se incluyen, por ejemplo, el blockchain o la inteligencia artificial.

Por otro la convergencia de tecnologías ya de por sí exponenciales y de crecimiento acelerado.

Y la tercera fuerza, a la que en el fondo me quería referir en este post, no es realmente una fuerza sino la unión de otras siete fuerzas, no tan tecnológicas, y quizá menos evidentes. Son éstas:

  • Tiempo ahorrado: a medida que la automatización nos libera de trabajos pesados y rutinarios disponemos de más tiempo para pensar, crear e innovar, impulsando así un gran círculo virtuoso.

  • Disponibilidad de capital: una disponibilidad de capital de inversión que ya no sólo viene de administraciones o grandes empresas sino que también incluye al capital riesgo e incluso personas individuales vía 'crowdfunding'.

  • Desmonetización: que más que a una desmonetización completa se refiere a un abaratamiento radical de todo tipo de recursos, desde secuenciadores genéticos, a la capacidad de computación o los robots.

  • Más ingenio: Debido fundamentalmente a la generalización de la educación, el talento natural de muchas personas que en el pasado no tenía oportunidad de desarrollarse, ahora sí puede ser aprovechado, dando lugar a más ideas, más innovaciones.

  • Abundancia de comunicaciones: que se refiere a la hiper-presencia y rendimientos mejorados de las redes de comunicaciones.

  • Nuevos modelos de negocio: Lo que empieza siendo una transformación tecnológica acaba mutando en transformación de modelos de negocio y, por tanto, transformación de mercados y de la creación de valor lo que contribuyen a acelerar aún más el progreso.

  • Vidas más largas: Al alargarse la esperanza de vida, se alarga el periodo en que podemos realizar aportaciones valiosas. Los autores lo ejemplifican con el caso de Ada Lovelace quien murió a los 36 años y de la cual, caso de haber vivido más se podrían haber esperado nuevas y valiosas aportaciones al mundo de la computación.

Se puede compartir o no con los autores el optimismo en cuanto a la velocidad (y aceleración) de los cambios, pero en lo relativo a las fuerzas potenciadoras y aceleradoras de la innovación no resulta difícil estar de acuerdo.

viernes, 5 de junio de 2020

El Deep Learning explicado por Jordi Torres

En 'Python Deep Learning' nos encontramos con una muy buena introducción al campo del Deep Learning, una introducción muy didáctica en que todo el desarrollo teórico, que se realiza con bastante simplicidad, se acompaña de ejemplos reales realizados, como se indica en el subtítulo de la obra, usando las librerías Keras y TensorFlow 2.

El libro se estructura en catorce capítulos agrupados en cuatro partes, como sigue:
  • 'PARTE I: INTRODUCCIÓN': Una primera parte todavía muy introductoria centrada en aportar algunas definiciones y en poner en marcha las herramientas de trabajo

    • 'Capítulo 1: ¿Qué es el Deep Leaning?': Comienza explicando lo que es Inteligencia Aritifical y sus clases y situando al Machine Learning y al Deep learning en ese contexto. Luego introduce el Machine Learning y los tipos de aprendizaje para pasar a continuación a presentar el concepto de redes neuronales y sus tipos principales. Y finaliza el capítulo dando algunas de las razones que explican el auge actual del deep learning.

    • 'Capítulo 2: Entorno de trabajo': Un capítulo práctico para explicar cómo disponer de un entorno en Google Colab y Jupyter Notebook incluyendo TensorFlow y Keras.

    • 'Capítulo 3: Python y sus librerías': Otro capítulo un poco de apoyo para hablar de Python explicando sus fundamentos y la librería NumPy.


  • 'PARTE II: FUNDAMENTOS DEL DEEP LEARNING': Explica los fundamentos nucleares de las redes neuronales y el deep learning

    • 'Capítulo 4: Redes neuronales densamente conectadas': Comienza por el principio, explicando las neuronas artificiales y de forma muysimple los algoritmos de regresión. A continuación habla del perceptrón y el perceptrón multicapa y cómo se usa en problemas de clasificación. De cara a su aplicación en clasificación, también introduce la función de activación 'softmax'. Y todo ello lo aplica al caso de reconocimiento de dígitos escritos a mano usando la base MNIST.

    • 'Capítulo 5: Redes neuronales en Keras': Una vez entendidos los conceptos, en este capítulo los traslada a la librería Keras. Apoyándose en el caso de reconocimiento de dígitos manuscritos, explica la precarga de datos, la definición del modelo (cómo añadir capas y definir la función de activación), cómo configurar el proceso de aprendizaje, cómo evaluar el modelo y, finalmente, como hacer predicciones.

    • 'Capítulo 6: Cómo se entrena una red neuronal': Primero explica un esquema general de red neuronal y su aprendizaje donde se ven con claridad elementos como la red propiamente dicha, la función de pérdida, los optimizadores y los parámetros. También plantea un modelo general del aprendizaje de una red. Luego explica el algoritmo de descenso del gradiente y cómo se implementa en Keras. A continuación se centra en la función de pérdida para cerrar con los optimizadores.

    • 'Capítulo 7: Parámetros e hiperparámetros en redes neuronales': Empieza explicando por qué son necesarios los parámetros y la diferencia entre parámetros e hiperparámetros y los dos tipos de hiperparámetros existentes (de estructura y de algoritmo de aprendizaje). Comienza por explicar los hiperparámetros relacionados con el aprendizaje como el número de 'epochs', el tamaño del batch, la tasa de aprendizaje ('learning rate') y el decaimiento de la tasa de aprendizaje ('learning rate decay'), el momento ('momentum') y la inicialización de los pesos. Luego pasa a las funciones de activación y comenta, en concreto, la lineal, la sigmoide, la tangente hiperbólica, la 'softmax' y la ReLU. Finaliza con un caso práctico de clasificación binaria y cómo se maneja TensorFlow Playground.

    • 'Capítulo 8: redes neuronales convolucionales': Capítulo dedicado a explicar este tipo de redes tan usadas en visión artificial. Primero explica un poco el concepto de red convolucional y sus componentes básicos empezando por detallar cómo funciona la operación de convolución, incluyendo el 'pooling'. A continuaición explica cómo hacer una red en Keras, detallando la parte estructural, la eleccción de hiperparámetros y su aplicación al caso de la base de datos de moda 'Fashion - MNIST'. Al hilo del ejemplo explica algunos detalles más avanzado como el 'dropout' y la normalización.


  • 'PARTE III: TÉCNICAS DEL DEEP LEARNING': Una parte menos conceptual y más de aplicación

    • 'Capítulo 9: Etapas de un proyecto de Deep Learning': Nos propone un modelo de etapas para realizar un proyecto de deep learning. Empezando por la Definición del problema, nos habla de la preparación de datos donde nos explica, por ejemplo, la diferencia y criterios para la separación en datos de entrenamiento, validación y prueba y algunas estrategias posibles de validación. En la segunda fase, Desarrollar el modelo vemos cómo definirlo, configurarlo en cuanto a función de pérdida y optimizador y cómo entrenar al modelo. La tercera fase sería la Evaluación donde comienza por indicarnos cómo visualizar un modelo y nos habla del sobre-ajuste (over-fitting'), la detención temprana ('early stopping' y la evaluación.

    • 'Capítulo 10: Datos para entrenar redes neuronales': Trata de los datos de entrenamiento y nos indica, para empezar, dónde conseguir datos públicos, cómo descargarlos y usarlos y detalla, a modo de ejemplo, los datos de imágenes 'Dogs vs. Cats' de Kaggle. Nos habla también, y aplicado a este caso, el objeto ImageDataGenerator. Nos comenta también cómo solucionar problemas de sobre-ajsute y algunas ideas para construir modelos cuando se dispone de pocos datos.

    • 'Capítulo 11: Data augmentation y Transfer Learning': Dos técnicas relacionadas con el entrenamiento. La primera, 'Data Augmentation' tiene que ver con generar más datos a partir de los disponibles para entrenamiento como una forma de soluciones el sobre-ajuste. Lo explica con un caso de imágenes explicando formas de obtener nuevas imágenes a partir de las existentes mediante rotación, volteo, etc y cómo configurar ImageGenerator. Luego salta al 'Transfer Learning' que tiene que ver con el uso de redes pre-entrenadas como punto de partida y, así, nos habla de la extracción de características y del ajuste fino.

    • 'Capítulo 12: Arquitecturas avanzadas de redes neuronales': Presenta soluciones más avanzadas. Comienza por hablar del API funcional de Keras que, aunque algo menos sencilla que el API básica, permite cualquier tipo de modelos, incluyendo los más avanzados. Luego aborda las redes neuronales preentrenadas con nombre propio como AlexNet, VGG o ResNet y cómo acceder a ellas y usarlas en Keras.


  • 'PARTE IV: DEEP LEARNING GENERATIVO': Una última parte con, quizá, una de las áreas más avanzadas y espectaculares del deep learning, las redes capaces de 'crear' nuevos contenidos: texto, imágenes, etc

    • 'Capítulo 13: Redes neuronales recurrentes': Explica las redes neuronales recurrentes (RNN), unas redes que tienen en cuenta la historia anterior lo que las faculta para disponer de una cierta memoria y poder tratar series temporales. Nos explica cómo sería una célula de memoria, cómo se hace la retropropagación en el tiempo y alguna problemática como los 'exploding gradients' y los 'vanishing gradients' en que los gradientes resultan demasiado grandes y demasiado pequeños respectivamente. Nos habla también de las redes LSTM y de cómo vectorizar texto para el caso en que vayamos a utilizar las redes recurrentes en el procesamiento de texto, con técnicas como 'one-hot' o el 'embedding' de palabras. Luego propone un ejemplo de generación de texto usando una red recurrente

    • 'Capítulo 14: Generative Adversarial Networks': Finaliza con el caso de las redes adversarias. Explica las motivaciones y arquitecturas y el modo de entrenamiento y luego construye en Keras una red adversaria específica.
Tras los capítulos, cierra con una 'Clausura' breve y luego aporta cuatro apéndices:
  • 'Apéndice A: Traducción de los principales términos': Una útil correspondencia de términos en Inglés y Castellano.

  • 'Apéndice B: Tutorial de Google Colaboratory: ': Un poco más de detalle sobre el uso del entorno en Google Colaboratory y Jupyter Notebook propuesto en el segundo capítulo.

  • 'Apéndice C: Breve tutorial de TensorFlow Playground': Otro tutorial, en este caso sobre la herramienta TensorFlow Playground para la visualización de redes sencillas.

  • 'Apéndice D: Arquitectura de ResNet50': Detalle de la arquitectura de una de las redes con nombre propio mencionadas en el capítulo 12.
'Python Deep Learning' es un muy buen libro, con explicaciones claras y abundancia de ejemplos prácticos. Un libro con un equilibrio muy conseguido entre la aportación de conceptos y su aplicación práctica y también con un nivel de dificultad muy acertado, que permite su lectura sin excesivos conocimientos previos pero que, a pesar de ello, llega a un nivel de explicación y profundidad bastante razonable.

Muy recomendable.

Jordi Torres

(Fuente: Adaptación de la biografía en su página oficial)

Jordi Torres
Estudió Informática en la Facultat d’Informàtica de Barcelona de la Universitat Politècnica de Catalunya (UPC Barcelona Tech, 1988). Posteriormente realizó el doctorado en la misma UPC (siendo merecedor del premio a la mejor tesis de Informática de la UPC en el año 1993). Actualmente, es catedrático a tiempo completo en el Departamento de Arquitectura de Computadores de la UPC. Además, ha estado en el Center for Supercomputing Research & Development en Urbana-Champaign (Illinois, EE. UU., 1992) como investigador visitante.

Ha participado en más de 180 publicaciones de investigación en revistas, conferencias y capítulos de libros y colaborado en numerosa conferencias de las asociaciones IEEE y ACM siendo miembro del Comité de Programa en más de 50 de estas además de ocupar, en varias de ellas, cargos como Poster Chair, Program Chair, Publicity Chair, Steering Committee. También ha sido revisor de revistas relevantes en el área como IEEE Transactions on Computers, IEEE Transactions on Parallel and Distributed Systems, Concurrency, and Computation-Practice and Experience, Journal of Parallel and Distributed Computing, International Journal of Autonomic Computing, entre otras.

En 2005 se fundó el Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC) siendo nombrado responsable de la línea de investigación Autonomic Systems and eBusiness Platforms dentro del departamento de Computer Sciencedel BSC. Este grupo de investigación generó más de 120 artículos de investigación y 11 tesis doctorales, así como componentes de software que se pueden aplicar a nivel de middleware de los sistemas informáticos para mejorar su adaptabilidad, eficiencia y productividad. El grupo de investigación centró su trabajo de investigación en los middleware de plataformas de ejecución de supercomputación compuestas por sistemas de múltiples cores de alta productividad con aceleradores y arquitecturas de almacenamiento avanzadas e implementadas en entornos distribuidos a gran escala. El grupo creció hasta llegar a 30 personas y fue el momento de reorganizar el grupo en nuevos grupos dentro del departamento de Computer Scienceen BSC. Ahora tengo el encargo de explorar nuevas oportunidades para aplicar la tecnología de Supercomputación al campo de la Inteligencia Artificial. Así se ha creado el nuevo grupo de investigación Emerging Technologies for Artificial Intelligence el cual dirige.

su actividad actual en esta área se reparte en diferentes frentes, destacando los trabajos incluidos en el convenio CaixaBank-BSC, que aplica la computación cognitiva al sector bancario. A lo largo de estos años con su grupo de investigación ha participado en una veintena de proyectos en convocatorias competitivas, y muchos de ellos implicaron transferencia de tecnología entre la universidad y la industria. El grupo de investigación también ha participado en Redes de Excelencia como la European Network of Excellence on High Performance and Embedded Architecture and Compilation(HiPEAC), la Partnership for Advanced Computing in Europe(PRACE) o la European Technology Platform for High-Performance Computing(ETP4HPC).

Ha estado dando clases durante más de 30 años en temas fundamentales de la informática como son los sistemas operativos, arquitectura de computadores, redes informáticas o evaluación del rendimiento de sistemas. Actualmente imparte asignaturas en el máster de Ingeniería Informática (máster MEI) y en el de Innovación e Investigación en Informática (master MIRI) acerca de temas relacionados con Cloud Computing, Big Data, Inteligencia Artificial o Deep Learning. En la actualidad también está colaborando con otras entidades como la UPC School of Professional & Executive Developmento ESADE. En el pasado fue miembro de la Cátedra Telefónica-UPC durante varios años donde trabajó en innovación docente.

Una porción de su tiempo tiene un rol consultivo y estratégico con tareas visionarias relacionadas con la tecnología de próxima generación y su impacto. Actualmente es miembro del consejo de administración de la empresa iThinkUPC actuando además de asesor en el departamento de Analítica de datos. Durante muchos años ha actuado como experto en estos temas para diversas organizaciones, empresas y ayudando a emprendedores. Ha sido miembro del consejo de administración de UPCnet (2011-2013), miembro del consejo asesor en el Centro de Excelencia de Big Data de Barcelona (2015-2016) y miembro del BSC Access Committee core team, entre otros. Ha participado como experto independiente por la European Commission(Information Society and Media Directorate) en 2010, para Friends of Europe’s Greening Europe Forum en2011, y para la Swiss Academy of Engineering Science durante 2012-2013. Actúa periódicamente como evaluador para el Ministerio de Ciencia y Tecnología de España, para la Dirección General de Investigación de la comunidad de Madrid, para la Universitat Jaume I de Castelló, para el Departament d’Universitat i Recerca de la Generalitat de Catalunya, para la Fundación La Caixa, o la Ireland science Foundation, entre otras instituciones. En el 2010 fué elegido por la Fundació Centre Tècnològic de Catalunya como miembro del equipo de expertos para elaborar el libro blanco La contribución de las TIC a la transición a un modelo energético más sostenible y en 2012 la Comisión Europea le invitó a contribuir en la agenda de la Second Digital Assembly.

Está comprometido con la divulgación de la ciencia y la técnica para llevarla fuera de las aulas universitarias al público en general. Por ello colabora con diversos medios de comunicación, radio y televisión desde hace años. En paralelo ha realizado numerosas conferencias para todo tipo de audiencias. También ha publicado varios libros acerca de ciencia y tecnología para un público general.

Antes de crearse el Barcelona Supercomputing Center, fué miembro del Centro Europeo de Paralelismo de Barcelona (CEPBA) (1994-2004) y miembro del board of managers del CEPBA-IBM Research Institute(CIRI) (2000- 2004). Ha sido Vicedecano de Relaciones Institucionales en la Facultat d’Informàtica de Barcelona (1998-2001). También ha sido miembro del Claustro de UPC varias épocas y miembro de la Junta de gobierno (2011-2013) participando activamente en varias de sus comisiones. Durante 30 años ha participado en numerosas actividades de gestión académica y representación institucional de la UPC.

Durante su carrera académica ha recibido algunos reconocimientos. Recientemente el Best Paper Award del workshop DeepVision en CVPR 2019 por el trabajo de nuestra doctorando Míriam Bellver. La “Menció FIBER” en el 2015 en el Camp del Barça, concedido por la mejor asociación de Alumni de la FIB. También tiene reconocidos 4 “tramos de investigación” por la “Comisión Nacional Evaluadora de la Actividad Investigadora”. Premio a la mejor tesis de informática de la UPC del curso 1993-94. Accésit al 1er Concurso de ideas medioambientales de la UPC (1998) concedido juntamente con Josep R. Herrero. Premio OLIVETTI-UPC en forma de beca (1992) o una beca de doctorado de la UPC (1991).

Es miembro de diferentes asociaciones como IEEE, ACM o ISOC. Es uno de los organizadores del Barcelona Spark Meetup y el Barcelona Data Science and Machine Learning Meetup.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @JordiTorresAI.