miércoles, 27 de julio de 2022

Apuntes sobre Brain-Computer Interface (III): Técnicas Semi-invasivas

Continuamos en este post, tras un breve paréntesis, nuestro recorrido por los aspectos fundamentales del BCI ('Brain-Computer Interface'), basándonos para ello fundamentalmente en las aportaciones del libro 'Brain-Computer Interfacing. An Introduction' de Rajesh P. N. Rao.

Y continuamos, en concreto, repasando algunas de las principales técnicas o familias de técnicas que se aplican en BCI.

Si en el anterior post hablamos de las técnicas invasivas, aquellas en que existía un contacto directo entre la máquina y el cerebro, ahora abordamos las técnicas semi-invasivas.


Técnicas semi-invasivas

 

Cuando hablamos de técnicas semi-invasivas nos referimos a un tipo de técnicas en que no se penetra en la superficie del cerebro. En realidad, en ocasiones existe un cierto contacto, pero sin entrar en el cerebro propiamente dicho.

Meninges. Fuente: Wikipedia

A pesar de ello, a pesar de no penetrar más allá de la superficie del cerebro, se trata de técnicas que podemos considerar el algún caso bastante agresivas puesto, en el caso concreto de la electrocorticografía, requieren la disposición de electrodos en el interior del cráneo (con la consiguiente creaneotomía) ya sea por debajo de la duramadre (ECoG subdural) o por fuera de la duramadre (ECoG epidural), siendo la duramadre la meninge más externa.

Una opción, algo menos agresiva, y que aún cae dentro de este tipo de técnicas semi-invasivas, es el caso de técnicas que acceden a las terminaciones nerviosas en diferentes partes del cuerpo. 

Veamos brevemente ambas.

 

Electrocorticografía (ECoG)


Según se indica en Wikipedia, las señales de ECoG reflejan la sincronización de los potenciales postsinápticos, unos potenciales que se presentan principalmente en las células piramidales corticales, y que, por lo tanto deben pasar a través de diversas capas de la corteza cerebral, líquido cefalorraquídeo, piamadre y aracnoides antes de llegar a los electrodos subdurales localizados justo debajo de la duramadre en el caso del ECoG subdural.


Electrocorticografía. Autoría: Mehdi Shokoueinejad, Dong-Wook Park y Yei Hwan Jung  

Este tipo de técnicas se han aplicado en pacientes humanos (que han accedido voluntariamente a ello) para localizar la fuente de convulsiones, un foco epiléptico, en un paso previo a una posterior cirugía. 

En estos casos, se implantan unos electrodos ya sean subdurales o epidurales durante aproximadamente una semana y se solicita al paciente que realice diferentes movimientos o imagine acciones motoras. Las señales obtenidas se analizan posteriormente para identificar los electrodos y frecuencias que exhiben una mayor correlación con los movimientos ejecutados.

También y de forma reciente, se han aplicado en animales con el objetivo de realizar una caracterización de la resolución espacio-temporal de las señales de ECoG.


Registro de nervios externos al cerebro


Se trata de una técnica menos agresiva que la anterior, menos invasiva, si se quiere. 

En este caso se registran las señales de los nervios periféricos en lugar de atacar al córtex motor. En estos casos, y aunque algunos nervioso sensores y motores han perdido su funcionalidad, en general otros muchos la mantienen. Estas fibras nerviosas pueden ser 'leídas' o estimuladas usando un array de electrodos similar a los implantados en el cerebro en otras técnicas.

Se trata de un tipo de técnicas especialmente apropiadas para el control de sistemas de brazo-mano artificial en el caso de personas que han sufrido amputaciones.


Continuará


En el próximo post de esta serie dedicada a BCI hablaremos de las técnicas no invasivas.

 

Artículos de este blog relacionados

jueves, 21 de julio de 2022

Ocho capacidades cognitivas nucleares

Con frecuencia, cuando trabajamos en el ámbito de la inteligencia artificial o de la robótica, incluso de la neurociencia o la psicología, utilizamos el término 'cognitivo'.


Inteligencia Artificial y capacidades cognitivas


En concreto, cuando hablamos de tecnología, hablar de 'cognitivo' es casi equivalente a decir que emplea inteligencia artificial.

¿Es realmente lo mismo decir que es 'cognitivo' o que utiliza 'capacidades cognitivas' a decir que es 'inteligente' en el sentido de que utiliza Inteligencia Artificial?

Pues probablemente no. Creo que solapa bastante pero que no es lo mismo, aunque reconozco que en más de una ocasión yo mismo he utilizado el término cognitivo casi como sinónimo de emplear inteligencia artificial. 

Además, hay que advertir que el término cognitivo no es especialmente algo técnico, sino que es un término que, creo, nació en el ámbito de la psicología hace ya bastantes años, existiendo incluso una rama de la misma denominada psicología cognitiva que nació más o menos en el mismo lapso temporal que la inteligencia artificial, allá por los años cincuenta o sesenta del siglo pasado.

¿Qué es entonces cognitivo o, si se prefiere, cuáles son esas capacidades cognitivas, en realidad unas capacidades inicialmente humanas o de los seres vivos y que con frecuencia intenta emular la inteligencia artificial?


Capacidades cognitivas


Me encuentro leyendo el interesantísimo libro 'Cognitive robotics' editado por Angelo Cangelosi y Minoru Asada y en él me encuentro, en un capítulo firmado por David Vernon, un muy ordenado censo de las principales capacidades cognitivas. Un censo que puede resultar más que ilustrativo para entender de qué hablamos al hablar de cognitivo.

Las ocho capacidades cognitivas que este autor identifica son:


  • Percepción: se trata de la transformación de los datos en bruto (obtenidos por los sentidos en el caso de los seres vivos y mediante sensores en el caso de las máquinas) a una representación interna empleable por otros procesos cognitivos.

  • Atención: proceso que reduce la información a procesar por un sistema cognitivo mediante la selección de la información relevante y el filtrado de aquella que no lo es.

  • Selección de acción: determinación de lo que un agente, en este caso un agente inteligente o cognitivo, debe realizar a continuación.

  • Memoria: Almacenaje de información. El autor menciona además seis diferentes tipos de memoria, a saber

    • Memoria sensorial de corto plazo: almacena las percepciones más recientes y puede decaer, por ejemplo, y en el caso de seres vivos, en solo unas decenas de milisegundos en el caso de percepción visual.

    • Memoria de trabajo: Contiene la información más reciente relativa a la tarea actual tanto perceptual como relacionada y suele referirse al foco de atención actual.

    • Memoria episódica de largo plazo: se relaciona con instancias de la experiencia del agente cognitivo, digamos la persona, y juega un papel relevante en las capacidades de anticipación.

    • Memoria semántica: Contiene el conocimiento que el agente tiene del mundo y puede ser independiente de su propia experiencia. Se trata de hechos, objetos y relaciones entre ellos. Las memorias episódica y semántica se agrupan bajo el término de memoria declarativa.

    • Memoria procedimental: Si la memoria declarativa agrupa de alguna forma el conocimiento, la memoria procedimental tiene más que ver con las habilidades y el 'know-how', el saber cómo se hace algo

    • Memoria global: Se aplica en el ámbito de sistemas cognitivos artificiales para designar una memoria unificada para todos los usos anteriores.

  • Aprendizaje: Capacidad de un agente para mejorar su desempeño mediante la adquisición de conocimiento o habilidades nuevas.

  • Razonamiento: Capacidad para, de una forma sistemática y lógica, procesar el conocimiento, habitualmente para realizar una inferencia o alcanzar unas conclusiones.

  • Meta-cognición: Capacidad de un agente cognitivo para monitorizar sus propios procesos cognitivos internos y razonar acerca de ellos.

  • Prospección: Capacidad para anticipar el futuro.


Como se puede apreciar, no hablamos específicamente de capacidades de seres vivos ni de capacidades de máquinas o algoritmos, sino que es posible encontrarlas, salvo alguna excepción, en ambos casos. Por eso, e intencionadamente, he utilizado la palabra agente, bastante neutra, donde en algún caso en el texto original se hablaba de sistema, que, aunque es una palabra en el fondo igual de genérica que agente, tienen connotaciones más de máquina y software que quería evitar.


Conclusión


Este censo puede dejar alguna capacidad cognitiva en el tintero. De hecho, David Vernon se refiere a estas capacidades como 'core', dando a entender que son las principales, pero que existen otras.

En cualquier caso, y aunque sea por extensión más que por comprensión, esta lista nos puede dar una mayor idea de a qué nos referimos con el término cognitivo y si algún sistema o algoritmo es realmente cognitivo o no, con independencia de que utilice Inteligencia Artificial.


martes, 12 de julio de 2022

De las palabras a los hechos o cómo operativizar la Ética en Inteligencia Artificial.

El campo de la ética en Inteligencia Artificial resulta muy atractivo. 

Atractivo porque la tecnología a que se refiere, la Inteligencia Artificial, es en sí misma transformadora, poderosa y, sobre todo, cautivadora y sugerente. 

Atractivo porque la ética también, si se prescinde de estudios eruditos en exceso, está muy cerca de nuestro día a día, de aquello que nos preocupa e interesa. La combinación de ambas, pus, parece que no puede resultar otra cosa que enormemente magnética.

En parte así es aunque creo que sólo en parte. 

Y sólo en parte porque, con todo y su innegable atractivo, tanto la inteligencia artificial como la ética son dos disciplinas no sencillas, con muchos conceptos y muchas ideas. La sensación de 'zapatos nuevos' puede desaparecer pronto cuando se intenta profundizar.

Aun así creo que sí, que el campo de la ética en inteligencia artificial resulta atractivo, muy atractivo. 


La paradoja del atractivo


Pero en buena medida, ese atractivo, unido a la dificultad real que la disciplina implica, conlleva un riesgo, un grave riesgo.

El riesgo que aqueja a este campo de trabajo es el de la superficialidad. La superficialidad, el 'postureo' e incluso la demagogia.

Es muy fácil caer en tópicos simplistas, en exacerbar injustificadamente temores a la tecnología o proponer soluciones que no son tales sino puro 'buenismo' sin base y sin posibilidades de convertirse en nada realmente útil, práctico, accionable, con impacto real.

Cuando hace unos pocos años comencé a interesarme por la ética en inteligencia artificial, la verdad es que lo primero que me topé tenia mucho que ver con esto: muchos posts, artículos y webinars que hacían poco más que repetir y repetir, casi los mismos típicos y tópicos riesgos asociados a la inteligencia artificial y el vago deseo de una visión ética y humanista. 

Y nada más.

Y así una y otra vez.

Y llegue a temer que no saliésemos de esa especie de círculo vicioso, de ese repetir machaconamente las mismas preocupaciones y deseos sin dar un paso adelante, sin un plan de acción, sin el más leve progreso.


Vías para operativizar la ética en Inteligencia artificial


Por suerte, hoy no tengo la misma visión.

Bueno, seamos claros, sigue existiendo mucho discurso prefabricado, superficial, vacío e incluso incorrecto.

Pero también hay trabajo del bueno, del que hace avanzar, del que puede proporcionar resultados reales, del que puede conseguir, de hecho, una mayor ética en el uso de la inteligencia artificial.

Aunque seguramente haya alguna vía adicional, creo que para llevar a la práctica la ética en inteligencia artificial existen dos vías principales: la vía legal y la vía que denomino técnico-metodológica.


La vía legal


La vía legal es, en cierto sentido, la más fácil de entender de las dos. Digo fácil en el sentido de entender por qué operativiza la ética, no que la legislación y el derecho sean realmente sencillos de entender para el profano.

En algún foro he dicho que con frecuencia la ley actúa como 'el brazo armado de la ética'. Si, de acuerdo, es una figura retórica y es una simplificación, pero creo que no está tan descaminada.

¿A qué me refiero?

La ética, a pesar de todas sus variantes, vertientes  e interpretaciones, en el fondo tiene un poso común de unos valores o formas de entender la vida que llevan a determinar que unos comportamientos sean buenos y otros malos. Y que, por tanto, deseemos promover los comportamientos buenos y evitar los malos.

La ley, en cierto sentido, recoge esos valores, o al menos los consensuados, o al menos, en un siguiente paso de reducción, los que exhiben los grupos mayoritarios en un régimen democrático. En cualquier caso, recoge unos valores, deduce los comportamientos adecuados e inadecuados y promueve los comportamientos buenos y, sobre todo, prohíbe y castiga 'los malos'. 

En esa labor, de alguna forma, la ley 'baja a tierra' a la ética, la convierte en algo tangible, en normas más o menos claras y en mecanismos para incentivar o desincentivar los comportamientos adecuados o inadecuados, buenos o malos.

Con la ley, y a pesar del margen a la interpretación que por desgracia exhibe, pasamos del debate abstracto que domina la ética como disciplina filosófica, a la concreción normativa que regula la actividad diaria y las relaciones entre personas y entre instituciones.

Es, en ese sentido, una forma de operativizar la ética, más o menos afortunada según el caso.

Y, en el caso de la Inteligencia Artificial, la Unión Europea lleva dando pasos firmes en materia de orientar de momento, y seguro que regular y legislar después, diversos aspectos relativos a la Inteligencia Artificial, su uso correcto o incorrecto, admitido o no. Lo más avanzado en esa línea, de momento, es el borrador de reglamento de la inteligencia artificial. Pero vendrá más, sin ninguna duda.

No voy a entrar en el debate de si ese reglamento es acertado o no. Hay opiniones. Pero lo que sí me parece claro es que si queremos que la ética en inteligencia artificial sea algo más que debates, artículos y webinars, una forma necesaria de operativizarla, tiene que ver con el establecimiento del marco regulador que garantice los comportamientos adecuados, al menos en lo relativo a aquellos valores que hayamos sido capaces de consensuar o en su defecto considerarlos mayoritarios.

Creo que es una necesidad pero tampoco se me oculta, que la ley tiene alguna limitación a la hora de implementar principios éticos en la tecnología.

La limitación que resulta acaso inevitable, es que tiene un cierto carácter reactivo. La tecnología va siempre por delante y los problemas éticos que puede plantear, caso de ser novedosos, también. Hay mecanismos legales para intentar con legislaciones existentes hacer frente a nuevos fenómenos, pero algo me dice que esa forma de actuar, aunque quizá correcta e inevitable a corto plazo, no es óptima.

Otra posible limitación del enfoque legal es que tiene tendencia, que no obligación, a ser de tipo limitativo, a poner barreras, a prohibir, a frenar. Muchas veces será inevitable e incluso correcto, pero para aquellos que amamos la tecnología y la innovación siempre nos quedará un 'regusto' de temor de ver qué van a prohibir o qué van a exigir.

Con todo y todo, insisto en el mensaje principal: una de las vías, y muy importante, para operativizar la ética de la inteligencia artificial es la legal-normativa.

Y en ese campo, no sé si al paso adecuado, no sé si al cien por cien en la dirección mejor, pero sin duda avanzamos. 


La vía técnico-metodológica.


Pero hay otra vía que, quizá por ser ingeniero, me gusta mucho, mucho más.

Y por cierto, de la que se habla mucho, mucho menos.

Se trata de aplicar tecnología y metodología para resolver algunos de los retos éticos que se plantean en el campo de la inteligencia artificial, típicamente la privacidad, los sesgos y la explicabilidad.

Ya en un artículo publicado en este mismo blog y titulado '¿Y si el sesgo algorítmico se reduce a un problema de muestreo?' apuntaba a las situaciones en que el famoso sesgo se produce, no por maldad del desarrollador, no por maldad de su empresa y no, por supuesto, por una intención oculta del algoritmo. No, por tanto, por ningún problema de fondo ético o de valores, sino por un mero error metodológico, un error, en ese sentido, corregible y prevenible en el futuro.

Creo que, en muchos casos, o bien los errores, sobre todo sesgos, se producen por errores de metodología y procedimiento, o bien, como ocurre en los propios sesgos, en ciertos aspectos de la privacidad o en la explicabilidad, la propia tecnología e incluso la propia metodología, nos pueden proporcionar herramientas para minimizar o incluso evitar el problema.

Me ha gustado mucho en ese sentido, el enfoque que adoptan Mónica Villas y Javier Camacho en su libro 'Manual de ética aplicada en inteligencia artificial'. En el libro nos hablan también de la vía legal, en especial de las iniciativas dela Unión Europea, pero cuando tratan algunos de los principios, nos aportan, una detrás de otra, las metodologías, técnicas y algoritmos para evitar el problema ético o minimizarlo. Insisto: los algoritmos, tecnologías y metodologías para evitar el problema ético

Así, hablando de privacidad y anonimización nos hablan de integridad contextual, transparencia estructurada, privacidad diferencial, encriptación homomórfica o aprendizaje federado. 

A propósito de la equidad y la evitación de sesgos, nos presentan una amplia batería de métricas de equidad, diferentes formas de analizarlas y enfocar la equidad con base en estas métricas e incluso herramientas de mercado.

Y en lo relativo a explicabilidad, nos presentan, de nuevo modelos de explicabilidad y, de nuevo, herramientas de mercado.

Llamo la atención, para aquellos que piensen que los ingenieros, matemáticos y científicos de datos son incapaces de un pensamiento ético, que todo este tipo de herramientas y algoritmos son plenamente técnicos, obra de los mismos desarrolladores, ingenieros, matemáticos y científicos de datos a los que a veces parece que se les supone, creo que con mucha simpleza y muy injustamente, faltos de la más mínima inquietud ética. Ya pedí para ellos hace unos meses, y lo vuelvo a hacer ahora 'el debido respeto'.

Y esta vía técnico-metodológica, caso de tener éxito, es sin duda la mejor, es la que evita el problema de raíz, incluyendo, como reza la aspiración, la 'etica por diseño', aunque eso no sea óbice para seguir necesitando el marco normativo, porque no siempre la visión técnica-metodológica evitará todos los males, desde luego no lo hace hoy en día, y, además, dada la naturaleza humana, es imposible evitar el abuso, la negligencia y el uso malicioso por mucha tecnología y metodología que tengamos.  


Conclusiones


Cuando somos serios, cuando queremos ir más allá del discurso vacío, efectista, demagógico y sensacionalista, o cuando queremos superar el debate por el debate, cuando de verdad, de verdad de la buena, queremos conseguir alcanzar un uso ético de la inteligencia artificial, como probablemente de cualquier tecnología, e incluso otros muchos campos no tecnológicos, existen vías, fundamentalmente la legal-normativa y la técnico-metodológica, para pasar de las palabras a los hechos, para conseguir resultados, para llevar a la practica y para operativizar, en definitiva, esa ética de la inteligencia artificial a la que se supone que aspiramos.


lunes, 11 de julio de 2022

Apuntes sobre Brain-Computer Interface (II): Técnicas Invasivas

Como anunciaba en el artículo anterior, voy a dedicar una serie de posts a resumir aspectos relevantes relacionados con BCI ('Brain Computer Interface'), unos apuntes basados en el contenido del libro  'Brain-Computer Interfacing. An Introduction' de Rajesh P. N. Rao, cuya lectura he finalizado hace pocos días.

En el post de hoy hablaré de las técnicas invasivas de lectura. Antes de entrar en ellas, un par de aclaraciones de contexto.

Utilizo el término 'lectura' queriendo decir que son técnicas en que la máquina, el lado 'C' de BCI, adquiere información sobre el cerebro o sistema nervioso de la persona. A lo mejor resultaría más técnico e incluso adecuado hablar de técnicas sensoras o algo así, pero de momento lo dejo en 'lectura' que me parece sencillo de comprender.


Tipos de técnicas de 'lectura'


La otra precisión es, simplemente, aclarar qué quiere decir eso de invasivo, aunque no es demasiado difícil de deducir. En esa labor de interacción con el cerebro o sistema nervioso, los sistemas BCI pueden interactuar con el mismo, en este caso obtener información, de muchas formas.

En algunas de esas formas o técnicas, se entra en contacto físico directo con el cerebro o el sistema nervioso y entonces nos encontramos ante técnicas invasivas.

En otros casos, no existe contacto directo sino que la información se obtiene a partir de ondas electromágnéticas u otras manifestaciones externas de la actividad cerebral, pero sin 'tocar', por decirlo de alguna manera, ni al cerebro ni al sistema nervioso. Ese sería el caso de las técnicas no invasivas.

Y en medio, claro, y como veremos, unas técnicas que se sitúan en un punto intermedio, la semi-invasivas.


Técnicas invasivas


Siguiendo la argumentación de Rao, existen dos enfoques dominantes en el caso del BCI invasivo:


  • Condicionamiento operante ('operant conditioning'): en que se confía en la adaptación de las propias neuronas de la persona o animal, para conseguir llevar a cabo el control de algún elemento externo. Conseguido el aprendizaje, 'simplemente' se detecta la activación de la o las neuronas.

  • Decodificación de población ('population decoding'): en que se utilizan técnicas de naturaleza estadística para aprender de alguna forma de 'mapeo' o correspondencia entre la actividad neuronal (de un conjunto o población de neuronas) y los parámetros de control.


Considero necesario advertir al lector que los términos que indico los he recibido siempre en inglés, por lo que la traducción al castellano es propia y no puedo asegurar que se corresponda al cien por cien con el término que se pueda emplear en alguna otra publicación en castellano.

Advertido lo anterior, veamos con algo más de detalle ambos casos: 


Técnicas de condicionamiento operante ('operant condition')


En este tipo de técnicas, y mediante el uso de recompensas, se enseña a un animal (o incluso a un humano) a activar una neurona o conjunto de neuronas cuando quiere conseguir alguna acción (mover una palanca, mover un cursor o un artefacto prostético). Cuando se ha conseguido ese aprendizaje, el BCI lo que tiene que hacer, evidentemente, es detectar la activación de la neurona o grupo de neuronas determinado y actuar en consecuencia.

En sus primeras manifestaciones, este tipo de técnicas ya comenzaron en los años 60 pero se sigue trabajando en ellas.

Rao ilustra un experimento con primates en que mediante estas técnicas se conseguía que movieran un cursor en una pantalla. La verdad es que no se nos explica a nivel sensor qué se utiliza exactamente, para detectar la activación neuronal, pero sirva en cualquier caso como ilustración.

Por mi parte, decir que este tipo de técnicas, que me resultan 'alucinantes' en el sentido de que son capaces de condicionar el disparo bastante individualizado de neuronas, me parecen doblemente invasivas. 

Por un lado, por lo que normalmente se entiende como invasivo: el contacto directo con el cerebro aunque en este caso no conozcamos el tipo concreto de sensor o sonda utilizado. 

Por otro, el hecho de estar condicionando de alguna forma el comportamiento de ese cerebro, siquiera sea mínimamente y reducido a una neurona o grupo reducido de neuronas. Una forma de 'invasión' no del todo física, pero bastante evidente.


Técnicas de decodificación de población ('population decoding') 


En general se entiende que el condicionamiento operante requiere mucha práctica y puede ser difícil o incluso imposible de conseguir en según qué sujetos y tareas. Como alternativa se dispone de la decodificación de población ('population decoding')  donde, de alguna manera, intentamos 'entender' la actividad neuronal y 'qué quiere' el cerebro, por decirlo de alguna manera. 

Se basan en el hecho de que las neuronas de córtex motor primario ('primary motor córtex') de alguna forma realizan realmente esa codificación a nivel de población para expresar atributos como la dirección, velocidad o fuerza en el movimiento de una extremidad. 

Se trata, pues, de en primer lugar captar las señales procedentes del cerebro (que es donde entramos en el campo 'invasivo') y luego interpretarla de alguna forma mediante algoritmos de naturaleza estadísticas.

Para medir la señal de las neuronas se utilizan sensores del tipo de matrices ('arrays') de electrodos implantados en ese córtex motor primario. Estos sensores habitualmente intentan captar activaciones ('spikes') de las neuronas pero existen otros casos en que lo que miden son potenciales de locales (LFP, 'Local Field Potentials') en que ya no se trabaja tanto a nivel de neuronas individuales como de grupos de neuronas más o menos amplios.

En el procesamiento posterior, que es donde se pone en gran medida el énfasis en la investigación, se utilizan variedad de algoritmos pero Rao destaca tres, en cuyo detalle ya no vamos a entrar: el vector población ('population vector'), el filtro lineal (Weiner) y el filtro de Kalman. 

Aquí y allá aparecen también algoritmos propios del machine learning como PCA ('Principal Component Analysis').

Con este tipo de técnicas se ha conseguido el control de brazos prostéticos, control de extremidades inferiores y marcha, control de cursores, etc


BCI cognitivo


Uso de BrainGate en humanos
En cierto sentido, el BCI cognitivo es una forma 'population decoding' pero, en este caso, no nos centramos en la actividad del cortex motor sino en otros señales de más alto nivel en las que, además, más que intentar decodificar trayectorias de extremidades prostéticas o de cursores, lo que se intenta decodificar es el objetivo que se pretende conseguir con el movimiento.

Mucho del trabajo con BCI invasivo se ha realizado con monos y poco con humanos (salvo en el caso de implantes cocleares y los denominados estimuladores 'deep brain' de que hablaremos en otro post), pero sí se ha realizado alguna experiencia, especialmente en el caso de pacientes tetrapléjicos, previo consentimiento.

En algunos de ellos se han utilizado, para la obtención de la señal, los sensores BrainGate que incluyen 100 microelectrodos de silicio y que se ilustran en la figura.


Algunos retos


Algunos de los retos a que se enfrentan este tipo de soluciones son, por un lado, si un BCI puede ser implantado con unos parámetros fijos o al menos estables o tienen que ser actualizados continuamente.

Otra problemática tiene que ver sobre la fiabilidad de los registros proporcionados por los electrodos a largo plazo, sometidos a eventuales ataques de naturaleza biológica.

Añadiría, de mi cosecha, que también hay que considerar posibles efectos a medio o largo plazo en el propio humano por eventuales degradaciones o efectos adversos no de corto plazo que puedan producirse en o debido a los sensores implantados.


Seguimos


Con esto finalizamos un repaso necesariamente superficial, pero espero que algo clarificador a las técnicas invasivas de BCI. En el siguiente post de la serie, hablaremos de las semi-invasivas.


Artículos de este blog relacionados

miércoles, 6 de julio de 2022

Apuntes sobre Brain Computer Interface (I): ¿De qué va eso del BCI?

He decidido empezar una pequeña serie de posts sobre BCI ('Brain-Computer Interface')

Una serie, quizá no cien por cien continua, a lo mejor se ve puntualmente interrumpida por algún que otro post intercalado sobre otra temática, pero sí bastante condensada en el tiempo. 

Y una serie de posts que no serán muy de opinión o especulación, no es al menos esa mi intención ahora mismo, sino más bien una suerte de notas o apuntes, que resumen los hallazgos que me encuentro en el libro 'Brain-Computer Interfacing. An Introduction.' de Rajesh P. N. Rao.

Hacerlo así me sirve a mi para poner en orden algunas ideas y para resumirlas y espero que, al tiempo, le sirvan al lector de este blog para conocer aspectos que resulten de su interés sobre este apasionante campo o, incluso, para descubrirlo.

Y empiezo estos 'apuntes' por el principio, como se suele decir: estableciendo un poco el campo del que estamos hablando.


¿Qué es BCI ('Brain Computer Interface')?


En la obra citada, y seguro que sin pretender dar una definición formal, Rajesh P. N. Rao nos dice que BCI...


is a new interdisciplinary field that seeks to explore this idea of leveraging recent advances in neuroscience, signal processing, machine learning, and information detecting.


y la idea a que se refiere, la ha expresado un poco más arriba:


evolutionary tinkering has made the brain a surprisingly versatile and adaptive system to the extent that it can learn to control devices that are radically different from our body.


Dicho así puede parecer fantasioso, que el cerebro controle dispositivos diferentes del propio cuerpo, pero, en el fondo se trata, al menos parcialmente, de eso. Eso sí, esta suerte de aproximación a definición se queda corta porque, en realidad, en BCI la interfaz cerebro máquina es bidireccional, como vemos un poco más abajo: se 'lee' del cerebro y del sistema nervioso' pero también se actúa sobre él. Además, no todos los objetivos tienen necesariamente que ver con el control de dispositivos sino que la lectura y cierto entendimiento de las señales provenientes del cerebro pueden ser usados con otros fines y no sólo para el control de dispositivos.

En cualquier caso, en BCI hablamos de una interfaz entre cerebro (y sistema nervioso) y ordenador más o menos directa, no mediante intermediación de otros elementos (típicamente el lenguaje) que se puede producir en otras soluciones también muy de mi interés como los robots sociales o los agentes conversacionales.


¿Para qué se hace BCI?


Los usos potenciales de BCI son inmensos, algunos asustan, pero el objetivo primigenio, lo que le dio origen e este campo, y lo que todavía constituye gran parte de su área de aplicación es:


The primary motivation for building BCIs today is their potential for restoring lost sensory and motor function.


Es decir, su uso primero y más frecuente es para ayudar a personas con impedimentos físicos o sensoriales, a recuperar, al menos parcialmente, sus capacidades o sustituirlas por otras que puedan controlar con su cerebro. Así, se utiliza, y como veremos en algún futuro post dela serie, en personas con discapacidades físicas (quizá por un accidente), con sordera, con Parkinson, etc.


Fases del procesamiento en BCI


En el sentido anterior, el objetivo principal de BCI, siempre en palabras de Rao, sería:


The aim is to translate brain activity into control commands for devices and/or stimulate the brain to provide sensory feedback or restore neurological function.


Es decir, si una persona tiene una limitación física (digamos que le falta un brazo) la idea sería, por ejemplo, captar de alguna forma la 'voluntad' del cerebro de mover ese brazo que le falta para hacerlo con un brazo robótico. O, por ejemplo, a una persona sorda, enviarle los estímulos que 'le faltan' de forma que su cerebro capte el sonido.


Y, para hacer esto, Rao identifica seis fases que típicamente se encuentran presentes en una solución BCI:


  • Registro de señales cerebrales una captación y registro que, como veremos en futuros 'apuntes', puede realizarse mediante técnicas invasivas o no invasivas.

  • Procesamiento de señal es decir, tratamiento de esas señales en bruto para extraer características relevantes que se utilizarán en la siguiente fase.

  • Reconocimiento de patrones y machine learning de una forma muy similar a como se hace con otro tipo de datos, una vez obtenidos los datos y convertidos en características ('features') se pueden aplicar algoritmos, típicamente procedentes del campo del 'machine learning', para reconocer patrones y, de alguna forma, obtener una suerte de 'conclusiones' acerca de lo que el cerebro 'pretende', de forma que puedan ser utilizadas, por ejemplo, para saber cómo mover un dispositivo o un cursor.

  • Realimentación sensorial si hasta ahora hemos recorrido un camino, digamos, del cerebro hacia la máquina, ahora iniciamos el sentido contrario, preparando el 'feedback' de naturaleza sensorial a proporcionar a la persona a través de la estimulación de su cerebro o sistema nervioso.

  • Procesado de señal para estimulación la señal de realimentación 'en bruto' se convierte en un tipo de señal que se mimetice con la que habitualmente se recibe en la parte del cerebro o sistema nervioso que pretendamos estimular.

  • Estimulación y, finalmente, esa señal se aplica sobre el cerebro o sistema nervioso.

Como se ve, se trata en cierto sentido un viaje de ida y vuelta desde el cerebro pasando por la máquina, aunque no en todas las aplicaciones de BCI se haga el recorrido completo.


Las disciplinas involucradas


Como se puede observar, BCI es un campo complejo y multidisciplinar (para mí, aunque no la única, de sus fuentes de atractivo) y, en concreto, Rao nos advierte de las disciplinas mínimas involucradas:


to begin building BCIs, one must have a background in at least four essential areas: basic neuroscience, brain recording and stimulating technologies, elementary signal processing and basic machine-learning techniques.


Un enfoque más que correcto, pero por supuesto técnico. A estas disciplinas, neurociencia, procesamiento de señal, interfaz con el cerebro y machine learning, no estaría de más añadir, dadas las importantes implicaciones de BCI, su vertiente ética y, quizá, regulatoria.


Seguiremos


Bueno, este post no es más que la apertura de los 'apuntes' sobre BCI. 

Seguirán otros adentrándonos, siempre con base en la obra de Rao, en las técnicas utilizadas y en las aplicaciones. Y, al acabar, quién sabe, a lo mejor escribo alguno, más de mi cosecha, menos austero y con una orientación de naturaleza más ética y/o especulativa.


lunes, 4 de julio de 2022

La fungibilidad de los tokens y el éxito de los NFT

Está de moda el tema de los NFT es decir, los 'Non Fungible Tokens'. Y como todo lo que tiene que ver con tecnologías avanzadas y con la comunicación de las mismas, cuando se ponen de moda existe una cierta mitificación, a veces una clara exageración y, no pocas veces, una simplificación confusa.

¿De que hablamos cuando hablamos de NFT exactamente?

Bueno, no me considero, ni mucho menos, un especialista en la materia, pero voy a intentar arrojar algo de luz, al tiempo que también ordeno mis propias ideas, apoyándome en la obra 'Token Economy: How the Web3 reinvents the Internet' de Shermin Voshmgir

Y ya de paso, al final, elucubrar un poco.


En primer lugar: ¿qué es un token?


Antes de contestar a la pregunta de qué es eso de un token no fungible, cabe preguntarse qué es, simplemente, un 'token'. Creo, no estoy 100% seguro, que la palabra 'token' no está reconocida por la Real Academia Española como un término en castellano pero eso, a efectos de lo que nos ocupa, es poco importante.

Hablamos de 'token' en el contexto de activos y transacciones económicas y, muy especialmente, en plataformas blockchain y entornos Web3.

Y creo, creo, que la palabra 'token' incluso en ese ámbito, precede al mundo tecnológico actual, aunque muchas veces sólo se utilice en el entorno blockchain. No tengo ahora mismo a mano una definición de 'libro' de lo que es un token, que incluya incluso el mundo pre-blockchain, pero voy a arriesgar la siguiente:


Un token es una representación de valor.


Me refiero a valor económico que, en el fondo, parece que debiera ser una contrapartida de valor en sentido más amplio. Es decir, los activos materiales y los servicios que nos prestamos tienen un valor económico, un valor que, a efectos de transacciones y almacenamiento, trasladamos a otros objetos que lo representan. Si dicho así suena muy raro, pensemos en el dinero: las monedas y los billetes son tokens, puesto que representan valor. Las fichas de un casino son 'tokens' puesto que representan valor. Una escritura de propiedad es un token, puesto que representa un activo de valor.

Pero, claro, la palabra 'token' se ha popularizado en el contexto digital y de las plataformas de blockchain. Probablemente haya quien opine, y no voy a poner especial empeño en desmentirlo, que 'token sólo se aplica en el mundo blockchain o DLT. Y, en ese sentido, los 'token' son elementos fundamentales de esas plataformas, unos elementos que siguen conservando su propiedad de representación de valor pero que lo hacen mediante unos artefactos digitales fuertemente securizados mediante mecanismos de criptografía, consenso, etc. y que se gestionan en las plataformas blockchain aunque con frecuencia representen activos físicos o, en cualquier caso, activos que 'viven' fuera de la plataforma blockchain.

En esa línea, Shermin Voshmgir nos dice:


The tokenization of an existing asset refers to the process of creating a tokenized digital twin for any physical object or financial asset.


No está mal esa visión del token como gemelo digital de un objeto físico o activo financiero (aunque ojo con confundir aquí el término 'gemelo digital' con el que se emplea en el ámbito de la industria 4.0). 

En el mundo de blockchain, una criptomoneda, un bitcoin específico, por ejemplo, es un 'token'. Pero los token en en mundo blockchain pueden representar todo tipo de activos y valores: un activo físico como una propiedad, un derecho de voto, un derecho de uso, etc


La fungibilidad de los token


Dentro de los token, alguno son fungibles y otros no fungibles. La verdad es que creo que en castellano, el término 'fungible' confunde bastante y que, quizá, sería más adecuado algo como 'intercambiable'.

¿Qué quiere decir eso de la fungibilidad?

Pues se trata de que los token fungibles son intercambiables unos por otros soportando o representando el mismo valor con independencia, por ejemplo, de su creador o historia. Los token no fungibles, evidentemente, son aquellos en que esto no es así, en que sí existe diferenciación y no hay plena intercambiabilidad.

De nuevo parece muy extraño hasta que se pone un ejemplo del mundo real. Las monedas son token 'fungibles'. Así, no me importa intercambiar una moneda de un euro por otra. Me da igual cuándo se acuñó, en qué país o por qué manos ha pasado antes que por las mías. Sigue valiendo un euro. Y todas las monedas de un euro valen un euro. Son perfectamente intercambiables. Son fungibles.

No sucede lo mismo, por ejemplo, con activos como las obras de arte, en que cada una tiene un valor diferente y en que importa mucho el artista creador e incluso su historia. Dos obras de arte, o las escrituras que representan su propiedad, no son directamente intercambiables. No son fungibles.

Aunque la palabra nos extrañe, o aunque a lo mejor no entendamos todavía cómo se gestiona esto a nivel técnico en las plataformas de blockchain no parece ni tan complicado, ni tan moderno, ni tan original ¿no?


¿Y por qué tanto ruido con los NFT?


¿Pero por qué entonces tanto ruido últimamente con los NFT, los token no fungibles, y con que si tal o cual artista, por ejemplo, ha creado un NFT?

Pues confieso que no estoy del todo seguro y que no deja de sorprenderme un poco 

Pero sólo un poco porque, en primer lugar, en 'moda tecnológica' esta sobre-exposición, estas sobre-expectativas, esta exageración, son cosa frecuente.

Pero sólo un poco también porque puedo identificar factores que nos pueden orientar más allá del mero ruido mediático. 

Creo que, en el fondo, estamos experimentando e innovando. 

Entre otras cosas estamos experimentando con unas plataformas, blockchain que se dice llamadas a cambiar la forma en que se realizan los intercambios económicos, las transacciones, o se reflejan contratos, o se traza un activo, o se aseguran identidades. Y si eso es así, cualquier tangibilización o experimento exitoso, digamos crear y transaccionar con éxito un NFT, es llamativo y puede que incluso relevante.

Creo que también, en cierto sentido, se cuestiona en algunos aspectos qué es el valor y, sobre todo, qué es valioso. Nos sorprende el valor que puede alcanzar un yate digital que sólo sirve en un mundo virtual, o un vestido digital o, en fin, elementos sin realidad física que, de tener valor, lo tienen únicamente en esa Web3 o ese Metaverso también tan publicitado y todavía por demostrar e implantar realmente. Que un NFT que puede representar ya no un cuadro físico al que estamos acostumbrados, sino una obra de arte digital, quién sabe si incluso creada mediante inteligencia artificial, pueda ser transaccionada con éxito, alcanzar un alto valor, no es sólo interesante desde el punto de vista de modelos de negocio y proposiciones de valor, es que desafía aspectos profundos de nuestra economía tradicional y de a qué concedemos valor, y nos adentra en territorios inexplorados, llenos de oportunidades y miedos.

Y eso sí parece normal que haga correr 'ríos de tinta' (digital, normalmente)

En el fondo, NFT, probablemente, y sin despreciar en absoluto su realidad y la tecnología que hay detrás, no sea más que un icono, un término, una especie de marca comercial que sirve de paraguas para insinuar y experimentar con una posible revolución económica, de nuestra concepción del valor y de lo que hacemos con él.