viernes, 9 de abril de 2021

La empresa sana de Vicente de los Ríos

'Empresa sana', el segundo libro de Vicente de los Ríos, viene, en cierto sentido, a continuar la labor iniciada con su primera publicación, 'El misterio de reinventarse'. Si en aquel primer libro se hablaba de la transformación personal, ahora se lleva la transformación al ámbito de la empresa, una transformación que se propone a un tiempo como humana y digital.

Todo el libro sigue un paralelismo metafórico entre la empresa y el cuerpo humano y éste último ayuda a centrar e ilustrar los principales retos, problemáticas y también oportunidades a que se enfrentan la empresa y sus líderes frente al cambio y la necesidad de transformación.

Como elemento diferencial y práctico, cada capítulo, que se abre con una cita inspiradora, se cierra con un cuestionario que permite a las empresas la evaluación de su propia situación en cada una de las dimensiones analizadas.

El libro, de una extensión mediana tendiendo a corta, se estructura en quince capítulos:

  • '1. ¿Por qué hay que reinventar la empresa:' Un capítulo inicial introductorio que aporta una motivación para el resto del libro destacando un argumento por encima de los demás: el que la empresa pueda seguir aportando su valor a lo largo del tiempo. Analiza el factor humano, tanto en propietarios y directivos como empleados, clientes, proveedores, y proporciona algún ejemplo de transformación como Western Union.

  • '2. La empresa un ser vivo:' Explica la analogía entre la empresa y el cuerpo humano que servirá de hilo conductor del resto del libro. A partir de ahí en los siguientes capítulos va desgranando distintas facetas importantes en la transformación y expresadas metafóricamente como un elemento del cuerpo humano, empezando por los sentidos.

  • '3. La vista: Mirando al futuro:' Un capítulo que con la metáfora de la vista incide en los aspectos de visión estratégica, una visión que implica comprender el entorno, en especial el nuevo entorno digital, que precisa de valentía para cuestionar el modelo de negocio, logrando, eso si, un equilibrio entre el corto-pazo (la operación, los resultados) y el largo plazo (la visión estratégica propiamente dicha) y con una visión de la transformación que tiene que ser eminentemente digital. En este capítulo se aprovecha, además, para introducir el modelo de transformación digital propio del autor.

  • '4. El oído: Escuchar de verdad al cliente:' El oído, un órgano que nos permite captar sonidos pero también mantener el equilibro, es la metáfora usada para apostar por la escucha activa del cliente. El autor destaca la cercanía y el agradecimiento como elementos clave y apuesta decididamente por el contacto cercano y frecuente con el cliente, el empatizar con él y luego traducir ese conocimiento y esa sintonía en acciones.

  • '5. El olfato: el cambio en la toma de decisiones:' El olfato tiene que ver para el autor, como casi no podía ser de otra manera, con la toma de decisiones. Se apuesta por un cambio en el modelo de toma de decisiones y por unos directivos seguros de sí mismos y capaces de tomar decisiones drásticas cuando todavía las cosas van bien. Además, se destaca la importancia de ser capaz de aprender de los errores y del uso de los datos y la analítica de datos como soporte a la decisión.

  • '6. El gusto: innovar para crecer:' Y toca en este capítulo hablar de innovación apoyándose en la metáfora del gusto. Se apuesta decididamente por la innovación incluyendo el consejo de arriesgar en ese proceso y el eventual uso de los modelos de negocio y experiencias de terceros.

  • '7. El tacto: colaborar con otros:' El sentido del tacto nos refiere ahora a la colaboración, una colaboración en que se incluye la capacidad de participar en ecosistemas, es decir, entornos donde muchas empresas colaboran en pos de un beneficio mutuo. También se aconseja la creación de negocios con terceros y, en un sentido algo diferente, el hacer a la empresa visible, el mostrarla, mediante participación en eventos, organizando jornadas de puertas abiertas, impartiendo conferencias, etc.

  • '8. El cerebro: coordinación y racionalidad:' Cerrado ya el recorrido por los sentidos, la mirada se fija en otros tres elementos del cuerpo humano: el cerebro, el corazón y las canas. En este capítulo, el protagonista es el cerebro como imagen de la coordinación y la racionalidad y aunque esa racionalidad debe estar siempre presente, se desarrollan tres elementos bastante más concretos como son el presupuesto de base cero y el trazado de un plan sensato de transformación para lo cual se expone un modelo y, en general, se apuesta por la coordinación.

  • '9. El corazón: apostar por las personas:' donde se desarrolla una visión muy humana de la transformación, una visión donde no se toleren los malos comportamientos, donde se valore y potencie el talento y donde, en general, se apueste por los valores humanos entre los que se resaltan la confianza, la colaboración y la generosidad.

  • '10. Las canas: aprovechar lo mejor de la experiencia:' Recogiendo un leit-motiv muy propio del autor, en este capítulo se apuesta por el llamado talento senior, integrando en los equipos a las personas más mayores con los más jóvenes. Además, se habla de la gestión del tiempo y de una recuperación del sentido común que, de alguna manera, recoge muchos elementos tratados en los capítulos anteriores.

  • '11 Las enfermedades de la empresa y sus remedios:' Se produce un nuevo giro argumental y ahora lo que revisa son las enfermedades de la empresa, usando el paralelismo con las enfermedades de los diferentes órganos vistos en los primeros capítulos, en un minucioso recorrido. Y luego se identifican tres elementos que pueden servir como vacuna para esas enfermedades: el liderazgo, la comunicación y el alma, tres elementos que ocupan los tres siguientes capítulos.

  • '12 El liderazgo: generar confianza:' En el caso del liderazgo, se habla de la capacidad de generar confianza pero además se apuesta por un tipo de líder ejemplar, compasivo y agradecido.

  • '13. La comunicación: el eje vertebral de la transformación:' Se propone la comunicación como herramienta clave del líder para alinear esfuerzos y en esa línea se esbozan los pilares básicos de un plan de comunicación y se describe una comunicación que debe ser constante, transparente y adaptada a cada colectivo.

  • '14. El alma: la importancia del propósito:' Cerca ya de rematar todo el análisis llegamos quizá al punto más elevado, el alma esa especio de poso que deja la vida de una empresa en sus empleados y clientes y dentro de ese alma se profundiza en dos aspectos: el propósito y la responsabilidad, que incluye los elementos de responsabilidad social corporativa.

  • '15. Realmente se puede reinventar tu empresa?:' Un capítulo de cierre en que, recogiendo los resultados de los cuestionarios elaborados al final de cada capítulo, se llega a un diagnóstico de la empresa.
'Empresa sana' es un libro de lectura fácil y agradable pero que oculta, bajo esa aparente sencillez, mucha experiencia y el fruto de muchos años de trabajo en o con entornos corporativos que atesora el autor.

Un libro, además, escrito con ese tono espontáneo, humano y cercano que tanto caracteriza a su autor.

Un libro ágil y actual, creo que muy del gusto directivo y que, aunque puedo no ser imparcial, dada la relación de colaboración e incluso amistad que me une al autor, no puedo dejar de aconsejar como lectura a cualquiera interesado en el mundo de la empresa, el liderazgo y, sobre todo, en la transformación, digital o de cualquier otro tipo.

Vicente de los Ríos

(Fuente: perfil en LinkedIn)

Vicente de los Ríos Medina
Asesor digital y de negocio que ayuda a Comités de Dirección en su desarrollo y en procesos de transformación. Gran capacidad para crear y liderar equipos de expertos que acometan procesos de transformación digital

Mentor Digital de ejecutivos seniors, ayudándoles a entender el mundo digital y cómo sacarle partido en su vida profesional y personal

Ejecutivo Senior y experto en digitalización con una amplia experiencia internacional y éxito en liderar y transformar negocios y canales de venta y atención en los sectores de Telecomunicaciones, Consumo e Internet.

Director del Programa Ejecutivo de Transformación Digital de la EOI (Escuela de Organización Industrial) - 24 ediciones en 4 años.

Conferenciante en temas de transformación digital, reinvención, negocios y liderazgo. Gran comunicador motivacional con capacidades pedagógicas y técnicas.

Autor de "El Misterio de Reinventarse" (2019), un libro para ayudar a las personas en su reinvención profesional y personal (www.elmisteriodereinventarse.com)

Extensa experiencia en el Negocio de Internet con amplios conocimientos de marketing online, ventas online, estrategia omnicanal y social media, con dominio del uso de la tecnología como herramienta para mejorar resultados, resolver problemas y transformar negocios.

Más de 20 años de experiencia en liderazgo de grandes equipos con resultados sobresalientes en motivación, desarrollo de personas y mentoring, gracias a un estilo de gestión innovador y entusiasta con grandes dotes de comunicación, creatividad, trabajo en equipo y orientación a cliente.

Puedes saber más de la autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vdlrios.

Ficha técnica:

EDITORIAL: Almuzara
AÑO: 2021 
ISBN: 978-8418578373
PAGINAS: 208

miércoles, 7 de abril de 2021

Robots, agencia y la inspiración de la ley

No es fácil razonar de forma rigurosa a propósito de ética y mucho menos de ética aplicada a un territorio tan interesante pero al tiempo tan nuevo, complejo y en evolución como es el caso de los robots inteligentes y la relación entre robots y personas

Es difícil, y de hecho hasta la fecha poco he encontrado en ese sentido: argumentos o modelos que permita razonar, de una manera racional, objetiva y serena sobre aquello que cabe considerar ético y aquello que no, en este caso, con respecto a los robots.

Muchos planteamientos suelen pecar, en mi opinión, de apriorismos, prejuicios y quizá, en cierto sentido, cierta visceralidad.

Y por eso me ha gustado mucho el planteamiento que hace Sven Nyholm, profesor de la Universidad de Utrecht en su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. Nyolm nos ofrece un análisis muy ordenado sobre las capacidades de los robots y reflexiona sobre ellas desde un punto de vista ético y filosófico pero con muy buen entendimiento de la realidad objeto de análisis, los robots, sin mitos ni sensacionalismos.

Agencia


Central en el razonamiento de Nyholm está el concepto de agencia, un concepto sobre el que también tenía ganas de profundizar. Un concepto, además, algo confuso y en el que creo que el término (que he traducido literalmente del término inglés 'agency') puede confundir algo en su versión castellana.

Nos explica el propio Nyholm que se trata de un concepto filosófico algo complejo que se refiere a una capacidad o al ejercicio de esa capacidad. Una capacidad, y sigo con la explicación de Nyholm, que es compleja y que recoge la capacidad para actuar, tomar decisiones, razonar acerca de cómo actuar, interaccionar con otros agentes, hacer planes para actuar, evaluar acciones pasadas, asumir la responsabilidad de nuestras acciones, etc. De alguna forma tiene que ver, resumo, con la capacidad de actuar y la reflexión y control sobre esa acción.

Y, en efecto, se trata de una característica que no parece fácil definir, pero no me resulta demasiado difícil de entender así explicada. Y una característica que parece indudable que poseemos los humanos.

¿ Y los robots?

Esa es buena parte de la discusión.


Tipos de agencia


En su razonamiento, Nyholm propone distinguir varios tipos de agencia. En concreto, habla de cuatro:
  • Agencia básica y específica de un dominio: Persigue objetivos basándose en representaciones, dentro de un dominio o dominios limitados.

  • Agencia basada en principios y específica de un dominio: Persigue objetivos basándose en representaciones en un modo que está regulado y constreñido por ciertas reglas o principios y dentro de unos dominios limitados.

  • Agencia basada en principios, supervisada y respetuosa: Persigue objetivos basándose en representaciones, en un modo que está regulado por ciertas reglas o principios, al tiempo que está supervisado por alguna autoridad que puede detenernos o a la que se puede ceder el control, al menos dentro de ciertos dominios limitados.

  • Agencia responsable y específica de un dominio: Persigue objetivos en un modo que es sensible a las representaciones del entorno y que está regulado por ciertas leyes o principios acerca de qué hacer o no hacer, al tiempo que tienen la capacidad de entender la crítica a la propia agencia, junto con la capacidad de defender o alterar las propias acciones basado en los propios principios o la crítica razonada de la propia agencia.

Y luego traslada estas formas de agencia a los robots y, en concreto, a los vehículos autónomos. Y está claro que, según el tipo de robot y su sofisticación, sí pueden exhibir ciertos niveles de estos tipos de agencia.

De la ética a la ley


En ese análisis de la agencia trasladada a vehículos autónomos, Nyholm razona, acerca de la responsabilidad en casos de, por ejemplo accidentes, según el tipo de agencia y la compara con otros escenarios llevados a cabo por humanos.

El tipo de agencia le ayuda a determinar la responsabilidad de un acto ejecutado por un robot (un vehículo autónomo) o un humano. 

No solo eso, sigue su razonamiento y de alguna forma traslada esa responsabilidad, que en cierto modo es puramente ética, a un terreno más cercano a lo legal ('liability'). Es decir, razonando en términos éticos deduce quien, en función de la agencia, tiene una responsabilidad real, y luego deriva que responsabilidad sería exigible e incluso penalizable desde un punto de vista más legal. 

No voy a desentrañar todo el razonamiento, por no alargarme en exceso y por respetar la autoría intelectual de Nyholm, pero sí quisiera insistir en que me ha gustado mucho esa forma de razonar, que aúna de una forma creo que muy ordenada y razonable, una visión ligeramente técnica (entendiendo lo que los robots pueden y no pueden hacer) con la ética y la legal.

Creo que ese es el camino adecuado: entender la realidad (que puede ser técnica) que quieres regular, establecer los criterios morales y, a partir de ahí, intentar derivar leyes que favorezcan el comportamiento moral y castiguen, en su caso, el inmoral.

lunes, 5 de abril de 2021

Machine learning, explicabilidad y un gran truco de magia

La inteligencia artificial nos está permitiendo conseguir cosas asombrosas, y más cosas, de seguro, nos permitirá conseguir en los próximos años. Cosas que, de asombrosas que son, a veces parecen bordear la magia, lo cual, quizá, no debería asombrarnos si recordamos el famoso aserto de Arthur C. Clarke según el cual cualquier tecnología suficientemente avanzada es indistinguible de la magia.

Y hoy traigo a esta escena un gran truco de magia. Los magos son el machine learning y la explicabilidad de la inteligencia artificial y el truco es ¡tachán!: el machine learning  nos pueden permitir explicar cosas que los humanos no entendemos, detectar correlaciones e incluso causalidades que a los humanos nos pasan inadvertidas.

Hace unos días publicaba en este blog el artículo 'Deep learning y explicabilidad para el diseño de medicamentos' donde, en el fondo, ya presentábamos este truco. En ese artículo explicaba cómo se utiliza el deep learning y los algoritmos de explicabilidad en el diseño de medicamentos. Mediante deep learning se consigue modelar el efecto biológico de diferentes moléculas y, por tanto, su eventual acción terapéutica. Y mediante los algoritmos de explicabilidad conseguíamos conocer de alguna manera cuál es el mecanismo de esas moléculas, por qué consiguen su efecto biológico, sin más que explicar el algoritmo de deep learning.

Y ese el el truco de magia. Resulta que tomamos un problema, en este caso la búsqueda de un medicamento y, no solo conseguimos encontrar ese medicamento sino que, además, conseguimos explicar por qué funciona. Y lo bueno es que esta es una forma de actuar que podemos generalizar para muchos otros problemas, según el esquema:

  • Seleccionar un problema para el cual los humanos no tenemos la solución ni las reglas a aplicar para resolverlo, pero del que tenemos suficientes datos
  • Realizar un modelo de machine learning y entrenarlo hasta dar con la solución
  • Aplicar algoritmos de explicabilidad para entender cómo funciona ese algoritmo que ha conseguido encontrar la solución
  • Entender el problema en el mundo real con base en esas explicaciones

O sea, de un problema que no entendíamos conseguimos encontrar la solución (machine learning) y la explicación (explicabilidad de la inteligencia artificial). ¿No es pura magia?

Aplausos.

Bueno, la verdad es que, hasta donde sabemos, la magia no existe. Lo que existe son trucos de magia, y esto es en realidad un truco y, en el fondo, la realidad no es tan brillante como la puesta en escena que acabo de ejecutar nos puede hacer creer.

Lo cierto es que ante un problema que no sabemos resolver, la cosa no es tan simple como dárselo a un modelo de machine learning y ya está. Es necesario encontrar el modelo adecuado, es necesario establecer con acierto sus hiperparámetros y es necesario disponer de muchos datos de entrenamiento. Y, en ocasiones, encontraremos la solución y en otras no. Es decir, el encontrar la solución al problema no está ni mucho menos asegurado aunque cada vez se consiguen resolver más y más problemas y con más y más facilidad.

Bastante más verde está el tema de la explicabilidad. Lo cierto es que es todavía un campo de investigación con mucha tarea por delante y lo cierto es también que algunos algoritmos de explicabilidad que ya funcionan no nos proporcionan exactamente una explicación completa y en términos humanos sino, por ejemplo, indicaciones de qué variables de entrada han pesado más en la decisión del algoritmo. Así, por ejemplo, nos pueden indicar qué zonas de una imagen de entrada han pesado más en una labor de clasificación. Con frecuencia, pues, esa explicación serían más bien pistas para que luego unos humanos diesen la verdadera explicación... si son capaces.

El truco de magia, pues, no funciona siempre. Son necesarias unas condiciones muy concretas en el escenario y unos magos avezados.

De todas formas, aun reconociendo que se trata de un truco y no de verdadera magia, y aun reconociendo también que todavía estamos al nivel de poco más que unos juegos de manos, creo que el espectáculo vale la pena. Si el machine learning combinado con algoritmos de explicabilidad es capaz de, aunque sea en problemas concretos y con ayuda de humanos, dar soluciones y explicaciones a problemas hasta ahora no resueltos, bien se merece que paguemos la entrada.

Y no solo eso, se trata de una vía en que vale la pena, y mucho, seguir investigando y trabajando.

Show must go on!


viernes, 2 de abril de 2021

¿Por qué fracasa una transformación digital? Dos riesgos que habitualmente no se mencionan

Mucho se ha escrito y hablado sobre transformación digital en los últimos años, y mucho se escribirá y hablará sobre transformación digital en los inmediatamente venideros.

Muchas explicaciones, no siempre afortunadas, sobre en qué consiste la transformación digital. 

Muchas ideas y recetas, no todas completas ni acertadas, sobre cómo llevarla a cabo.

Y también, si, alguna argumentación, tampoco necesariamente bien enfocada, sobre los riesgos existentes y sobre qué puede hacer que nuestra transformación digital descarrile y no llegue a buen puerto. 

Hablé largo y tendido sobre transformación digital en mi primer libro 'La carrera digital' y en él hui de proporcionar recetas simples y genéricas, porque como les suelo insistir a mis alumnos cuando les hablo de transformación digital, no creo en la existencia de LA transformación digital, en abstracto, sino en TU transformación digital, la propia de tu compañía. Una transformación digital que depende del sector en que operes, de tu estrategia, de la situación de partida y madurez en materia de sistemas y tecnologías en tu empresa, de la presencia o no de cultura digital y habilidades digitales básicas, de tu aversión al riesgo, de tu disponibilidad presupuestaria...

No, no creo, en las recetas simplistas y generales, aunque, evidentemente, existen patrones comunes y buenas y malas prácticas.

En mi visión de la transformación digital, juega un papel importante una disciplina a la que no se suele relacionar, incomprensiblemente, con la transformación: la dirección de proyectos. Y una parte relevante de la dirección es la gestión de riesgos. En gran medida, la gestión del riesgo de un programa de transformación digital se debería, en mi opinión, gestionar siguiendo las buenas prácticas de gestión de riesgos en proyectos y programas.

En resumen, no creo en las recetas simplistas y generales para la transformación digital y los riesgos que la aquejan se debe gestionar mediante las técnicas al respecto de la dirección de proyectos.

A pesar de todo lo anterior, en este post quisiera mencionar dos riesgos genéricos que comprometen el éxito de una transformación digital (y, en gran medida, cualquier transformación ambiciosa). Y lo hago porque, como parte de mis actividades docentes, he tenido la ocasión recientemente de observar algún planteamiento sobre riesgos en transformación digital, y me pareció que había cosas importantes que añadir o, al menos, resaltar.

Voy a comentar, en concreto, dos elementos de riesgo:

  • El salto de la estrategia a la operativa
  • La ejecución y la resiliencia


El salto de la estrategia a la operativa


Se suele decir, y se dice bien, que la transformación digital deriva de la estrategia, que debe estar alineada con la estrategia. Y es cierto. Muy cierto. Absolutamente cierto. 

La transformación digital debe apoyar de forma coherente una estrategia existente o, incluso, debe definir, al menos parcialmente, esa estrategia. En cualquier caso, debe haber un completo alineamiento entre nuestra estrategia empresarial y la transformación digital que acometemos.

Sin embargo, existen discursos, que me inquietan e incomodan por lo blandos y ambiguos, en que de tanto centrarse en la estrategia, de tantas grandes palabras y visiones como los pueblan, se olvidan de que la estrategia hay que implementarla. La transformación digital hay que hacerla, construirla, ejecutarla

En el modelo que propongo en 'La Carrera Digital' indico que, teniendo clara la estrategia, se deben identificar unas iniciativas. De esas iniciativas se seleccionan las más oportunas. Y las iniciativas se convierten en proyectos (es decir, actividades con alcance, entregables, plazos, responsables, costes...). Ese salto de las estrategias, que forzosamente son visiones de alto nivel, a proyectos que son empeños muy concretos y operativos, es fundamental para que la transformación digital no se quede en un discurso o un powerpoint.

Y se trata de un salto que algunas visiones en mi opinión demasiado 'blandas' de la transformación digital no favorecen. La transformación digital no son unas 'slides' o el discurso de un CEO. La transformación digital es acción. Es ejecución. Es sangre, sudor y lágrimas.


La ejecución y la resiliencia 


Sangre, sudor y lágrimas. Una forma artística aunque severa de decirlo. Pero es así. La ejecución es compleja. Y es dura. La implantación de tecnología es compleja, y es dura. Y la transformación digital, aunque les pese reconocerlo a aquellos que se empeñen en negar su base tecnológica, es esencialmente, implantación de tecnología.

Una implantación de tecnología que, como hemos dicho, deriva de la estrategia...pero implantación de tecnología, al fin y al cabo.

Una implantación de tecnología acompañada de acciones de gestión del cambio y, eventualmente, de la promoción de un cambio cultural... pero implantación de tecnología.

Y cualquier que haya tenido la experiencia de participar en proyectos de implantación de tecnología sabe que suelen ser complejos y duros. Sabe que aparecen imprevistos, cosas que, inexplicablemente, no funcionan como pensábamos. Que surgen errores y fallos que parecen indescifrables. Que pese a nuestros mejores intentos de estimación de plazos, los tiempos tienden inexorablemente a alargarse. Que hay agentes que se oponen de forma activa o pasiva al avance del proyecto y que ponen 'palos en las ruedas. Y que la presión de la dirección suele ser alta.

Si, la implantación de tecnología es bonita, pero dura. Y la transformación digital, pese a quien pese, es esencialmente implantación de tecnología. Y, por tanto, es bonita, pero dura.

Y por eso es tan importante la resiliencia. Una resiliencia que nos haga a un tiempo resistentes y flexibles, pero en cualquier caso capaces de mantener la visión, la tensión y la motivación, cuando las cosas se ponen difíciles, lo cual suele ocurrir con frecuencia.

Cuando se habla de la importancia de las personas, se suele poner más énfasis en los aspectos culturales y de gestión del cambio. Y, en efecto, son muy importantes.

Pero en mi visión, lo que más me importa de cara a una transformación digital (en realidad de cara a cualquier transformación o iniciativa ambiciosa) es el liderazgo, la capacidad de llevar a la práctica una visión. Y esa capacidad de llevarla a la práctica implica no sólo visión. Implica, aún más, capacidad operativa y resiliencia, mucha resiliencia.


En resumen


Estos dos riesgos se podrían resumir en uno solo: la falta de capacidad operativa

Sugiero que no nos dejemos arrastrar por discursos simplistas, que nos hablen de estrategia sin concretar o que, al poner el foco en lo cultural, se desentiendan de lo tecnológico y operativo.

Insisto: la estrategia es esencial como punto de partida y las personas son cruciales, como impulsoras y sujetos afectados. Pero una transformación digital es, en esencia, implantación de tecnología. E implantar implica voluntad, resistencia y capacidad operativa.

Y si no la tienes, créeme, puedes llamarle como quieras a tu programa de cambio, pero no será una transformación digital. 

Y no implantarás nada relevante.

Y no triunfarás.


miércoles, 31 de marzo de 2021

Deep learning y explicabilidad para el diseño de medicamentos

Algunas de las aplicaciones del deep learning son bien conocidas y están ampliamente documentadas, como todo lo que tiene que ver con clasificadores, con visión artificial o con procesamiento de lenguaje natural.

Sin embargo, las posibilidades son más amplias y algunas incluso algo sorprendentes.


Diseño de medicamentos


Avanzada ya la lectura del libro 'Explainable AI: Interpreting, Explaining and Visualizing Deep Learning' editado por Wojciech Samek, Grégoire Montavon, Andrea Vedaldi, Lars Kai Hansen y Klaus-Robert Müller, me encuentro, por ejemplo, con una aplicación, el diseño de medicamentos que, si bien ha ganado cierta visibilidad debido a la búsqueda acelerada de una vacuna contra el COVID-19, no está sin embargo entre las más presentes en la literatura técnica.

En esta fuente nos dice, de forma muy directa que, el diseño de medicamentos consiste en:


identify molecules that act beneficially on the human (or animal) system e.g. that have certain therapeutic effect against particular diseases.


Es decir, lo que buscamos son moléculas con capacidad terapéutica, unas moléculas que, sin embargo, y según se nos explica, no sabemos muy bien cómo deben ser. Es decir, no existe una guía o unas normas claras de qué estructura química deben tener. En cierto sentido, parece ser un proceso de ensayo y error (aunque asumo que guiado en alguna medida por el conocimiento y experiencia de los científicos).

Robot en HTS. Foto: Maggie Bartlett
Como parte de ese diseño es necesario realizar un largo proceso de evaluación ('screening') de moléculas candidatas y en diferentes concentraciones hasta encontrar la adecuada. 

Se trata de un proceso de experimentación esencialmente biológico y. aunque este proceso ya se encuentra muy automatizado y robotizado, mediante lo que se denomina High-Throughput Screening (HTS) de todas formas es un proceso largo y caro.


Screening virtual. Deep learning en diseño de medicamentos


Y para salvar esas dificultades surge el denominado screening virtual, que consiste en el uso de modelos computacionales para predecir esos efectos biológicos de moléculas, evitando la prueba biológica propiamente dicha. 

Y aquí es donde entra en juego el deep learning, porque usando esta tecnología se han conseguido buenos modelos capaces de predecir la actividad biológica con base en estructuras moleculares e, incluso, en un paso algo más allá, con deep learning se ha conseguido la generación automatizada de moléculas.

En el libro se nos explica que existen hoy en día dos tipos de modelos de deep learning que se emplean en estas labores de screening virtual, a saber, 'descriptor-based feed-forward neural networks' y 'graph convolutional neural networks'. 




En el caso de 'descriptor-based feed forward neural networks' una red de capas densas actúa sobre una entrada inicial consistente en ciertas características (descriptores) de la molécula. En el caso de las redes gráficas de convolución, sin embargo, la entrada a una red de naturaleza convolucional es un grafo que describe la estructura de la molécula.


Explicabilidad de los modelos e impacto en investigación


Ambos métodos han arrojado buenos resultados. Sin embargo, todavía queda una barrera: lo cierto es que los modelos consiguen esa predicción de la actividad biológica de moléculas...pero nos resulta difícil comprender el 'razonamiento que siguen', Se interpreta que, por ejemplo, en el caso de las redes basadas en descriptores, las neuronas internas de la red, de alguna forma, son detectores de características de las moléculas...pero no sabemos bien qué están detectando, cuáles son esas características relevantes.

Conocerlo, explicar el comportamiento interno de la red neuronal, implicaría entender mejor los propios procesos químicos y biológicos subyacentes y por ello se trabaja en la explicabilidad de este tipo de modelos de deep learning. En el libro citado, de hecho, hace una propuesta para ambos casos.

Se trata de una especie de curioso y muy valioso viaje de ida y vuelta. Comenzamos con un proceso químico / biológico, lo modelamos y, si conseguimos explicar su comportamiento, habremos aprendido más sobre el propio proceso biológico.

Alucinante.


lunes, 29 de marzo de 2021

Interpretabilidad vs explicabilidad en Inteligencia Artificial

Cuando nos referimos, de manera general, a la explicabilidad de la inteligencia artificial, de manera intuitiva sabemos que lo que queremos es entender cómo razonan los algoritmos, cómo toman de alguna forma sus decisiones o llegan a sus conclusiones.

A la hora de referirse a esa capacidad, y aunque quizá el término más conocido sea el de explicabilidad, también se utiliza con cierta frecuencia el término interpretabilidad y normalmente se tienden a emplear como sinónimos.

Quizá, 'para andar por casa' lo podamos hacer así. Sin embargo, en el libro 'Explainable AI: Interpreting, Explaining and Visualizing Deep Learning' editado por Wojciech Samek, Grégoire Montavon, Andrea Vedaldi, Lars Kai Hansen y Klaus-Robert Müller nos mencionan un matiz, una distinción que puede ser relevante, al menos para entender mejor de qué hablamos.

En esta distinción, el concepto más básico es el de interpretabilidad que recoge la capacidad de comunicar la función de un algoritmo de machine learning a un usuario (función entendido, asumo, como el funcionamiento, la descripción de cómo es la transformación de entradas en salidas).

La explicabilidad necesita la interpretabilidad, es condición necesaria, pero esa interpretabilidad no es suficiente. Para que haya explicabilidad se debe añadir otro elemento que es la completitud ('completeness') que en este contexto quiere decir que la explicación que obtenemos sea suficientemente profunda como para poder ser auditada y, de alguna forma, 'que ésta defender' sus acciones y proporcionar respuestas a preguntas.

Según esta forma de razonar, la explicabilidad viene a ser la unión o la suma de la interpretabilidad y la completitud.

Quizá, esta distinción conceptual sea 'hilar muy fino'. Quizá, en el fondo, en un campo tan especializado como es el de la explicabilidad de la inteligencia artificial, sus practicantes no abriguen demasiadas dudas ni lagunas conceptuales sobre lo que realmente están intentando conseguir, pero, por si acaso, y por si añade algo útil, ahí queda la distinción.


miércoles, 24 de marzo de 2021

Dos métodos de explicabilidad del deep learning y un comentario

En el artículo anterior de este blog, titulado 'Algunas estrategias genéricas para la explicabilidad de la inteligencia artificial' vimos en concreto cuatro formas más o menos genéricas de enfocar la obtención de explicaciones comprensibles acerca de la forma de razonar de los algoritmos de inteligencia artificial, y más en concreto de algoritmos de deep learning con base en lo aportado en uno de los primeros capítulos del libro 'Explainable AI: Interpreting, Explaining and Visualizing Deep Learning' editado por Wojciech Samek, Grégoire Montavon, Andrea Vedaldi, Lars Kai Hansen y Klaus-Robert Müller. 

No se trataba de un censo completamente exhaustivo ni mucho menos detallado, pero la idea era estructurar de forma preliminar un poco las posibilidades de explicabilidad en que se trabaja.

Con la misma idea quisiera en este artículo ahondar un poco más (tampoco mucho) en dos familias de algoritmos para la explicabilidad que aparecen en abundancia en la citada fuente: las explicaciones basadas en gradiente ('gradient-based explanations') y la propagación en capas de la relevancia ('layer-wise relevance propagation', LRP)

Me apoyo para ello en la misma fuente bibliográfica, aunque en un capítulo diferente y, teniendo en cuenta que el libro citado es un libro coral, con diferentes autores por capítulos, la fuente última es en realidad ligeramente diferente. Advierto también que las denominaciones en castellano de estos métodos son una improvisación propia ya que hasta ahora sólo he tenido acceso a ellos en literatura en inglés, con lo que ignoro si existe una traducción al castellano más o menos ampliamente adoptada.

Y decir finalmente que he querido poner el foco en estas dos familias de algoritmos, únicamente porque en la lectura sobre la materia aparecen con mucha frecuencia por lo que, dada su aparente representatividad, parece interesante dedicarles un poco más de atención. Vamos allá.


Gradient based-explanations


Cuando hablamos de explicabilidad de la inteligencia artificial, y en concreto del deep learning, lo que estamos es intentando encontrar formas de explicar, de una manera comprensible por los humanos, la forma de 'razonar', llamémosla así, de unos algoritmos que vemos como una suerte de "caja negra", en el sentido de que vemos sus entradas y sus salidas pero no entendemos bien su funcionamiento interno.

Sobre lo de no entender bien ya he expresado en algún momento mis catelas: el desarrollador, o al menos el inventor del algoritmo, sabe perfectamente cómo funciona, sabe perfectamente lo que ha programado si se quiere ver así, pero esto no guarda una relación directa con el razonamiento en términos humanos. Es en ese último sentido en que es una caja negra.

Pues bien, de alguna forma, los algoritmos basados en gradiente, asumen esa idea de caja negra, asumen que no conocemos el funcionamiento interno y no aspiramos en el fondo a desentrañarlo. Consideran a todo el algoritmo, toda la red neuronal como una función con sus entradas y sus salidas y lo que buscan es ver cómo reacciona ante cambios locales. 

Dicho de una forma más matemática, calculan el gradiente  de esa función ante cambios en, por ejemplo, el valor de uno de los parámetros de entrada. En la variante concreta que se explica en el capítulo 13 del libro citado (Gradient x Input), lo que se calcula, lo que se denomina relevancia es, en este caso, el producto de la derivada parcial de la función con respecto a la variable de entrada (lo que vendría a ser el gradiente) y eso se multiplica por el propio valor de entrada.

Con esto obtenemos, para cada caso concreto de decisión que queremos explicar, una suerte de mapa de cuánto han pesado los valores de entrada en la decisión final


Layer-wise relevance propagation


Este método no ve la red neuronal como una caja del todo negra, sino que asume un cierto conocimiento de su arquitectura, al menos sus capas. 

Para cada nodo de la red que ha contribuido a la activación de un cierto nodo de la salida de la red (el hablar de activación nos hace ver que implícitamente estamos pensando en problemas de clasificación) se le asigna una relevancia a nivel de capa, es decir, todos los nodos de una cierta capa que han contribuido a la activación del nodo de salida reciben la misma relevancia. 

La forma de calcular esa relevancia es partiendo del nodo de salida y aplicando una retropropagación que recorre todas las capas desde la salida hasta la entrada. Existen diversas formas de calcular la relevancia y propagarla, pero todas siguen esa misma idea general.

De nuevo, al final, y aunque de diferente forma, acabamos teniendo la relevancia, el peso si se quiere, que una cierta entrada tiene en la clasificación final.


Comentario final: ¿Es esto lo que buscamos?


Como sucede con casi todos los algoritmos de inteligencia artificial, y desde luego en el caso del deep learning, una comprensión profunda del algoritmo, en este caso de la forma de calcular relevancias, implica un despliegue matemático de un cierta complejidad en el que no vamos a entrar, al menos aquí y en este momento. Nos quedamos más con su filosofía. Pero creo que, a pesar de no entrar apenas en las matemáticas, sí que nos quedamos con una idea razonablemente aproximada de cómo funcionan estos dos métodos.

Comentaría que, en ambos casos y como hemos visto, lo que estos métodos nos proporcionan es de alguna forma el peso que las entradas tienen en las salidas de un algoritmo de deep learning.

¿Es esto lo que buscamos realmente en la explicabilidad?

Bueno, si y no. Más bien no.

Diría que es un primer paso, y un paso de mérito sin duda, pero no es la aspiración final. Y creo que no lo es porque, en el fondo, el significado de esas entradas y salidas no siempre son tan claros como para que supongan una explicación en términos humanos. Y no lo es tampoco porque, por más que sea muy interesante conocer qué pesa en la salida, no es estrictamente hablando una explicación de la forma de razonar, sino solo una aproximación.

Estos algoritmos se han aplicado, quizá sea su principal área de aplicación, en redes que trabajan como clasificadores en el ámbito de la visión artificial, es decir, en redes que de alguna forma reconocen o categorizan una imagen de entrada en una serie de categorías de salida. En esas redes, típicamente, una entrada se corresponde con la intensidad o color de un pixel. Conocer cuánto pesa un pixel en la clasificación final no parece por sí mismo una explicación. Cierto es que, normalmente, al contemplar el conjunto, más que píxels veremos regiones de la imagen que influyen en su clasificación. Un repaso de esos mapas de calor de las entradas, examinadas por un humano, en muchos casos pueden conducir a un entendimiento cierto, o casi cierto, de cómo está funcionando la red neuronal y en qué basa sus decisiones, pero nótese que no siempre será así y que, sobre todo, la explicación final la aporta un humano viendo los mapas de calor que produce el algoritmo de explicabilidad.

No quiero que esta valoración final se entienda en un sentido negativo. Nada de eso. Me parece que en muchos problemas reales es un resultado muy valioso y me parece, sobre todo, que el hecho de que seamos capaces de encontrar mecanismos algorítmicos o semi-algorítmicos para explicar, siquiera básicamente, cómo razona una red neuronal, es toda una demostración de ciencia e ingenio.

Lo que en realidad quiero decir es que, de cara a la aspiración final de la explicabilidad, todavía queda camino por recorrer, mucho, y en ello creo que los primeros que estarían de acuerdo, serían los propios científicos e ingenieros que trabajan en conseguir esa explicabilidad de la inteligencia artificial.