lunes, 10 de enero de 2022

¿Locos dirigiendo el manicomio? Perspectivas en la explicabilidad de la Inteligencia Artificial

La explicabilidad de la inteligencia artificial, es decir, que los algoritmos sepan explicar por qué toman sus decisiones u obtienen los resultados que obtienen, es un importante área de investigación en inteligencia artificial, un área compleja desde varias perspectivas y que conecta la parte técnica de la inteligencia artificial con trabajos en materia de ética y normativa.

Y, de alguna forma, esa conexión entre disciplinas nos lleva a una doble perspectiva que es la que quisiera abordar en este post.


El verdadero problema de la explicabilidad


Antes, quisiera aclarar algo sobre la explicabilidad de la inteligencia artificial, o al menos, como yo la entiendo: se habla mucho de algoritmos de caja negra, algoritmos que no sabemos cómo razonan y que, de alguna forma, pueden sugerir un cierto misterio o libre albedrío por parte del algoritmo. o una cierta ocultación por parte de los diseñadores sobre la forma de trabajar de 'sus algoritmos.

Bien, esto no es así.

Como defendía en un artículo publicado en este blog hace algo más de un año, los algoritmos de inteligencia artificial sí saben explicarse, dado que, en un momento dado, son perfectamente deterministas y con una muy bien definida función de transformación de entradas en salidas. Y, como argumentaba en ese artículo, el verdadero problema no es que no sepan explicarse, es que no se explican, en general, en unos términos comprensibles por los humanos y análogos al modo de razonar y explicar humanos.

Con ello, y aunque desde un punto de vista puramente teórico, sí son explicables, a efectos prácticos, en ciertos casos, en bastantes casos, no lo son. 

Y ese es el verdadero problema: no que no sean explicables, sino que no son explicables en términos comprensibles para los humanos y similares al razonamiento humano.

En lo que sigue, se pone de relieve la importancia del hecho de que queremos una explicación para seres humanos.


La doble perspectiva de la explicabilidad


Y es que, parece existir una doble perspectiva para la explicabilidad: por un lado, una explicabilidad para especialistas, para diseñadores de algoritmos, para científicos de datos y, por otra, una explicabilidad para, digamos, 'el común de los mortales' o, también, para eticistas, antropólogos y otros especialistas en ciencias sociales.

La primera sería, si se quiere, una explicación técnica y algorítmica, mucho más cercana a cómo funcionan internamente los algoritmos de machine learning y serviría, sobre todo, para avanzar en el diseño e implementación de algoritmos más potentes y también para avanzar en el diseño de algoritmos explicables.

Algo así, al menos, es lo que insinúan Stuart Russell y Peter Norvig, en su libro 'Artificial Intelligence. A modern approach' y lo hacen , muy brevemente, repasando bibliografía relativa, en este caso, a explicabilidad. 

En ese repaso mencionan el artículo 'Explainable AI: Beware of Inmates Running the Asylum' escrito por un equipo encabezado por Tim Miller de la 'School of Computing and Information Systems' en la Universidad de Melbourne.

Este artículo toma su título, a su vez del libro 'Inmates Are Running the Asylum, The: Why High Tech Products Drive Us Crazy and How to Restore the Sanity' de Alan Cooper (a cuya portada corresponde la imagen de cabecera de este post).

El artículo de Miller et. al, no muy extenso, parte de un análisis de una veintena de publicaciones, 23 en concreto, sobre explicabilidad de la inteligencia artificial y observa que, como por otra parte no me parece sorprendente, la mayor parte de ellos están escritos por especialistas en algoritmia e inteligencia artificial, con muy poca presencia de artículos especialistas en otras disciplinas, básicamente ciencias sociales: psicólogos, antropólogos, sociólogos, filósofos...

Los autores del artículo ven de manera negativa esa dominancia de la visión técnica y entienden que, de alguna forma, hacer que quien gestione y dirija la investigación en explicabilidad de la inteligencia artificial sean los propios especialistas en inteligencia artificial es como hacer que 'los locos dirijan el manicomio'.

Indican que la explicabilidad se busca para los seres humanos, para que los humanos las entiendan y, en ese sentido reclaman una mayor presencia de especialistas en ciencias sociales, más cercanos, digamos, a lo humano.


Peculiaridades de las explicaciones humanas


Los autores señalan a lo largo de su artículo algunas particularidades de las explicaciones que hacemos los humanos que me parece interesante recoger.

Así, por ejemplo, nos dicen que las explicaciones algorítmica tienden a buscar una atribución de tipo causa efecto completa, mientras que cuando un ser humano pregunta 'por qué', más bien busca un contraste, es decir, por qué la opción A y no la B, por decirlo de alguna manera. 

También nos dicen que las personas, habitualmente, no buscamos una explicación completa, con todos los factores, sino algo más simplificado, con sólo una o dos causas que, en su mayor parte, expliquen la decisión o resultado.

En general, está comprobado que las personas prefieren explicaciones simples y que valoran más esa simplicidad que no el que sean mucho más rigurosas o probables.

Muy interesante también son estudios que apuntan a que, y quizá paradójicamente, cuando una persona evalúa la bondad o no de una explicación, lo que más pesa no es que la causa aportada sea realmente cierta, sino que se valoran más otros aspectos como utilidad, relevancia, etc

En cierto sentido, todas estas características de las explicaciones humanas, o de lo que un humano espera de una explicación, parecen mostrarnos un comportamiento no completamente racional pero, sea como sea, dado que las explicaciones que deseamos de los algoritmos de inteligencia artificial están orientadas a que las entiendan los humanos, parece importante tenerlas en cuenta.


Conclusiones con valoración personal


De todo lo anterior, se me ocurre concluir algunas ideas, que ya adelanto que son mi propia visión.

Por un lado, no me sorprende, ni siquiera me parece ilógico ni indeseable, que el mayor peso de la investigación en explicabilidad de la inteligencia artificial corra de parte de especialistas en la materia: científicos de datos, matemáticos, ingenieros, informáticos, etc. Y me parece lógico puesto que, en el fondo, se trabaja sobre algoritmos, cómo analizarlos o modificarlos para hacerlos más explicables, o cómo obtener otros nuevos que, con las mismas prestaciones (o suficientes prestaciones), sean más explicables.

Sin embargo, sí me parece interesante la aportación de especialistas en otras materias, en varios sentidos. Así, por ejemplo, pueden ayudar a definir mejor lo que una persona espera de una explicación (un poco en la línea del epígrafe anterior) actuando, en ese sentido, un poco como fuente de requisitos y de pruebas de aceptación de un algoritmo explicable (en la línea de lo que se hace en ingeniería de software tradicional). Y también podrían, en algún caso, con ese análisis del razonamiento y explicación humanos, iluminar alguna opción alternativa de trabajo en algoritmia (una cierta biomímesis).

No deja de parecerme de todas formas terriblemente injusta, la descalificación de los profesionales de la inteligencia artificial que supone el hablar de ellos como los 'locos que dirigen el manicomio'. Seguramente sea sólo un título, una forma de llamar la atención... pero me sigue pareciendo muy injusta. Y además, eso es algo que no ocurre en este artículo de forma aislada, sino que me lo encuentro con bastante frecuencia en artículos, charlas y demás relacionadas con la ética en inteligencia Artificial. Creo los profesionales de la algoritmia se merecen más respeto como profesionales, como científicos e incluso como personas. A lo mejor un día de estos me animo a escribir un post en ese sentido.

Finalmente, se me ocurre una idea, que necesitaría, probablemente, más análisis u opinión. Se dice, y me parece bien (con el debido respeto, claro), que los especialistas en ciencias sociales participen más en los estudios sobre explicabilidad. Pero quizá, habría que distinguir el tipo de explicaciones que deseamos. Se me ocurre, en ese línea, que no sería la misma explicación la que podría desear un jurista para usarla, por ejemplo, en un contencioso o un juicio, una explicación que, entiendo, debería ser mucho más rigurosa y, en cierto sentido, más cercana a lo algorítmico, que la que podría desearse para un chatbot que diese consejos, no sé, sobre maquillaje, por decir algo trivial, y donde las explicaciones de porqué elegir un color o una forma de maquillarse, deberían buscar más la 'usabilidad' y la buena recepción y entendimiento por parte del usuario que el rigor propiamente dicho y la profundidad.

En cualquier caso, el campo de la explicabilidad sigue abierto, muy abierto. Es un campo complejo y donde no me parece sencillo obtener buenos resultados. Así que nos vienen bien todas las fuerzas, todas las aportaciones y todas las perspectivas. Pero el debido con el debido respeto, eso sí.

 

No hay comentarios:

Publicar un comentario