Y hoy traigo a esta escena un gran truco de magia. Los magos son el machine learning y la explicabilidad de la inteligencia artificial y el truco es ¡tachán!: el machine learning nos pueden permitir explicar cosas que los humanos no entendemos, detectar correlaciones e incluso causalidades que a los humanos nos pasan inadvertidas.
Hace unos días publicaba en este blog el artículo 'Deep learning y explicabilidad para el diseño de medicamentos' donde, en el fondo, ya presentábamos este truco. En ese artículo explicaba cómo se utiliza el deep learning y los algoritmos de explicabilidad en el diseño de medicamentos. Mediante deep learning se consigue modelar el efecto biológico de diferentes moléculas y, por tanto, su eventual acción terapéutica. Y mediante los algoritmos de explicabilidad conseguíamos conocer de alguna manera cuál es el mecanismo de esas moléculas, por qué consiguen su efecto biológico, sin más que explicar el algoritmo de deep learning.
Y ese el el truco de magia. Resulta que tomamos un problema, en este caso la búsqueda de un medicamento y, no solo conseguimos encontrar ese medicamento sino que, además, conseguimos explicar por qué funciona. Y lo bueno es que esta es una forma de actuar que podemos generalizar para muchos otros problemas, según el esquema:
- Seleccionar un problema para el cual los humanos no tenemos la solución ni las reglas a aplicar para resolverlo, pero del que tenemos suficientes datos
- Realizar un modelo de machine learning y entrenarlo hasta dar con la solución
- Aplicar algoritmos de explicabilidad para entender cómo funciona ese algoritmo que ha conseguido encontrar la solución
- Entender el problema en el mundo real con base en esas explicaciones
O sea, de un problema que no entendíamos conseguimos encontrar la solución (machine learning) y la explicación (explicabilidad de la inteligencia artificial). ¿No es pura magia?
Aplausos.
Bueno, la verdad es que, hasta donde sabemos, la magia no existe. Lo que existe son trucos de magia, y esto es en realidad un truco y, en el fondo, la realidad no es tan brillante como la puesta en escena que acabo de ejecutar nos puede hacer creer.
Lo cierto es que ante un problema que no sabemos resolver, la cosa no es tan simple como dárselo a un modelo de machine learning y ya está. Es necesario encontrar el modelo adecuado, es necesario establecer con acierto sus hiperparámetros y es necesario disponer de muchos datos de entrenamiento. Y, en ocasiones, encontraremos la solución y en otras no. Es decir, el encontrar la solución al problema no está ni mucho menos asegurado aunque cada vez se consiguen resolver más y más problemas y con más y más facilidad.
Bastante más verde está el tema de la explicabilidad. Lo cierto es que es todavía un campo de investigación con mucha tarea por delante y lo cierto es también que algunos algoritmos de explicabilidad que ya funcionan no nos proporcionan exactamente una explicación completa y en términos humanos sino, por ejemplo, indicaciones de qué variables de entrada han pesado más en la decisión del algoritmo. Así, por ejemplo, nos pueden indicar qué zonas de una imagen de entrada han pesado más en una labor de clasificación. Con frecuencia, pues, esa explicación serían más bien pistas para que luego unos humanos diesen la verdadera explicación... si son capaces.
El truco de magia, pues, no funciona siempre. Son necesarias unas condiciones muy concretas en el escenario y unos magos avezados.
De todas formas, aun reconociendo que se trata de un truco y no de verdadera magia, y aun reconociendo también que todavía estamos al nivel de poco más que unos juegos de manos, creo que el espectáculo vale la pena. Si el machine learning combinado con algoritmos de explicabilidad es capaz de, aunque sea en problemas concretos y con ayuda de humanos, dar soluciones y explicaciones a problemas hasta ahora no resueltos, bien se merece que paguemos la entrada.
Y no solo eso, se trata de una vía en que vale la pena, y mucho, seguir investigando y trabajando.
Show must go on!
No hay comentarios:
Publicar un comentario