miércoles, 16 de junio de 2021

Un mapa de explicabilidad de algoritmos de inteligencia artificial

Uno de los atributos que se empieza a buscar en los algoritmos de inteligencia artificial es el de su explicabilidad, es decir, que se pueda saber, de alguna forma, cuál ha sido la 'línea de razonamiento' seguida por ese algoritmo para llegar a una conclusión.

Esa petición de explicabilidad se toma como una exigencia de carácter ético e incluso regulatorio.


El problema de la explicabilidad de los algoritmos


Hace un tiempo defendí en este blog que, al contrario de lo que se suele afirmar, los algoritmos de inteligencia artificial se explican perfectamente puesto que, en un momento dado, en un cierto estadio de aprendizaje, con una foto congelada de parámetros, su comportamiento es perfectamente determinista y con arreglo a reglas y parámetros perfectamente conocidos.

El problema de la explicabilidad reside, más bien, en que la forma en que la mayoría de los algoritmos podrían 'explicar su comportamiento', nada tiene nada que ver con el modo de razonamiento humano y, por tanto, a efectos prácticos es como si no se explicasen. No porque no lo hagan, sino porque no  entendemos la explicación.

¿Y cómo de importante es que un algoritmo sea explicable en términos humanos?

En mi último libro, 'Robots en la sombra', defiendo que la explicabilidad es importante en algoritmos que tratan problemas con dos características:

  • Que nos importa mucho la decisión, porque nos impacta de manera notable en nuestras vidas
  • Que las reglas de esa decisión no son cien por cien claras ni siquiera cuando la decisión las toma un humano

¿De qué tipo de decisiones hablamos?

Pues de cosas como la selección para un empleo, un diagnóstico médico, la concesión de un préstamo o un juicio. En todos estos casos, el resultado de la decisión nos importa mucho, pero las reglas de decisión no son cien por cien claras, no son absolutamente deterministas, tampoco cuando decide un humano.

Si las decisiones no nos importan mucho, nos contentamos con que el algoritmo tenga una tasa de acierto razonable, en general igual o superior a la de un humano. Y si las reglas seguidas fueran absolutamente claras y deterministas no necesitaríamos más explicación, puesto que las propias reglas deterministas nos dirían cuál es esa explicación. 

Así que queremos la explicabilidad, al menos en ciertos casos.

Y lo que ocurre es que algunas de las familias de algoritmos más potentes hoy en día, los que mayores avances están proporcionando, los que lo consiguen resultados con una mayor precisión (típicamente los que forman parte de la amplia familia del deep learning), no exhiben la explicabilidad deseada.


Un mapa de explicabilidad


El asunto de la explicabilidad de la Inteligencia Artificial se encuentra en plena investigación, pero unas de las estrategias que se han propuesto es la de sustituir un algoritmo no explicable por otro que sí lo sea y que produzca resultados equivalentes. La dificultad de esta estrategia es que esa equivalencia no es total ni mucho menos, que unos algoritmos son más potentes, o más precisos que otros o tienen capacidades propias que no exhiben otros. No existe, ni mucho menos, una total intercambiabilidad.

En ese sentido, y para orientar la decisión o al menos la comprensión, puede ser interesante disponer de un mapa de familias de algoritmos con su nivel de explicabilidad y su precisión relativas. Y eso es lo que me he encontrado leyendo el libro 'Proyectos de Inteligencia Artificial' de Jaume Miralles. El autor incluye la figura que se muestra abajo y que toma del 'DARPA XAI Project'. 


En ella se 'mapean' cinco familias de algoritmos en un plano bidimensional, una de cuyas dimensiones es la explicabilidad y la otra la precisión de las predicciones proporcionadas por el modelo. Podemos observar que, en general, y por desgracia, a mayor precisión menor explicabilidad y viceversa. También podemos ver cómo, en efecto, el deep learning se sitúa como una familia algorítmica de alta precisión pero muy baja explicabilidad. Y cómo, en el extremo contrario, nos encontramos con los árboles de decisión, la familia con mayor explicabilidad pero menor precisión.


En conclusión


El mapa es ilustrativo tanto para posicionar los algoritmos como, quizá aún más, para comprender que en estos momentos estamos en un momento difícil para la explicabilidad. Y es difícil porque la explicabilidad, caso de conseguirse, suele ser a costa de la precisión.

Y tampoco queremos renunciar a la precisión, a la innovación y al progreso tecnológico ¿no?

Confiemos y demos tiempo a los investigadores a ver si encuentran mejores soluciones.


No hay comentarios:

Publicar un comentario