viernes, 13 de mayo de 2016

La renuncia al entendimiento o una posible derivada del Machine Learning y Big Data



Dos son las formas tradicionales de adquisición de nuevos conocimientos en el método científico tradicional: el empirismo y la deducción. El primero se basa en la observación y la investigación. Con base en esa experiencia se pueden obtener leyes que la propia experiencia confirma. En otros casos, se puede formular una hipótesis que los resultados experimentales confirman o desmienten. La deducción, más propia de las matemáticas o la física teórica, a parir de unas leyes y axiomas va deduciendo de forma lógica nuevas leyes y teoremas de forma irrefutable.

La deducción se basa en un conocimiento profundo de la estructura interna del objeto estudiado y las leyes que lo gobiernan. El empirismo implica menor conocimiento de la estructura interna aunque puede confirmar hipótesis acerca de esa estructura.

Cuando pasamos al mundo de las tecnologías digitales, los ordenadores y la computación, la mayor parte de los resultados obtenibles  por estas máquinas, la mayoría de los algoritmos son deterministas y, en cierto modo, deductivos. El programador entiende perfectamente la lógica y las leyes que el ordenador debe aplicar y lo programa conforme a a ellas. Y el usuario obtiene resultados predecibles y explicables, quizá por el propio usuario, aunque, por supuesto, sin la precisión, seguridad y rapidez que ofrece el ordenador. 

Sin embargo, no siempre es así. Es más. se encuentran en pleno auge dos tecnologías que adoptan otro enfoque.

La primera sería el Machine Learning que aplica algoritmos de inteligencia artificial del tipo de las redes neuronales. En este tipo de artefactos computacionales, un conjunto de nodos interconectados entre si son capaces de aprender, normalmente tras un entrenamiento consistente en ofrecer muchísimos ejemplos válidos de entradas / salidas. Una vez entrenada, la red neuronal es capaz de dar la respuesta correcta ante una entrada...pero sin 'entender' realmente el porqué. Simplemente, se ha encontrado un ajuste de pesos adecuado de las conexiones entre nodos que conduce a los resultados correctos.

Otro campo es el Big Data Big Data actúa sobre unas enormes cantidades de datos, incluso datos no estructurados. Sobre esos datos se pueden obtener tendencias, análisis y conclusiones. Sin embargo, esas conclusiones pueden con frecuencia no ser realmente comprendidas. Big Data encuentra correlaciones, es decir, valores o fenómenos que corren paralelos pero sin que haya necesariamente una relación causa efecto o, al menos, sin que conozcamos cual es ésta.

Identificada y cuantificada la correlación, Big Data puede ofrecer predicciones muy fiables...pero no sabemos por qué. Sólo sabemos que la correlación observada en el pasado permite tener confianza en una predicción que explota esa correlación. Sin embargo, no hay verdadero entendimiento de la estructura del problema... sólo de sus resultados externos.

Así nos lo explica, Martin Ford, hablando del Watson de IBM, en su libro The rise of the robots':

one of the primary tenets of the big data revolution: the idea that prediction based on correlation is sufficient, and that a deep understanding of causation is usually both unachievable and unnecessary.

Tanto Machine Learning como Big Data, pues, pueden resolver problemas complejos y ofrecer conclusiones y predicciones muy fiables...pero con el coste de ignorar el porqué, con una cierta renuncia al entendimiento, a una parte importante, en el fondo, del conocimiento.

Supongo que es lógico pagar ese peaje a cambio de los espectaculares resultados que se pueden obtener pero no deja de parecerme un poco triste, algo empobrecedor.

Aunque, si bien se mira, tampoco es para tanto. Al fin y al cabo, en el fondo tampoco sabemos cómo funciona nuestro cerebro...