viernes, 26 de noviembre de 2021

La explicabilidad de la Inteligencia Artificial y la falsa sensación de seguridad

Entre las temáticas que se empiezan a exigir, o hablar de exigir, a la inteligencia artificial, partiendo normalmente de una visión ética o normativa, es la llamada explicabilidad de la inteligencia artificial, es decir, que un algoritmo, o mejor, un sistema de inteligencia artificial, sea capaz de explicar su modo de razonamiento, cómo ha llegado a una decisión concreta, en términos comprensibles por los humanos y similares a como estos razonan cuando lo hacen de manera racional y consciente.

No es inocente que haya destacado en negrita lo de 'comprensibles por los humanos' y lo de 'racional y consciente'. Antes de ir al argumento principal del artículo, me voy a detener unos instantes en estas dos ideas.


Comprensión por los humanos


Defiendo, y ya lo he argumentado en este mismo blog, que los algoritmos de inteligencia artificial se pueden explicar perfectamente. Aunque evolucionen mediante experiencia y aprendizaje, en un momento dado son perfectamente deterministas y, por tanto, se pueden explicar de manera inequívoca,

El problema, en realidad, y me gusta matizarlo, es que esa explicación muchas veces no se puede realizar en términos similares al razonamiento consciente humano ni de forma comprensible fácilmente por personas no especializadas. Más aún, no se puede comparar a cómo habría adoptado la decisión un humano.

Por eso, a pesar de ser perfectamente explicables, a efectos prácticos, consideramos que no es así.


Decisiones racionales y conscientes


Por otro lado, y aunque este es un matiz algo más secundario, he apuntado que buscamos unas explicaciones similares a las de los humanos pero matizando que similares a cuando estos razonan de manera racional y consciente. 

Apunto a lo de consciente porque una gran parte de las decisiones que tomamos y de acciones que llevamos a cabo, son ejecutadas por nuestro cerebro sin que pasen por nuestro razonamiento consciente, sin que a efectos anatómicos, pasen por nuestro neocortex. Se trata de la autorregulación, de los actos reflejos, etc. Pues bien, la explicabilidad espera descripciones similares a cuando aplicamos razonamientos conscientes.

Y por otro lado destaco lo de la racionalidad porque, como argumentábamos muy recientemente en este blog, con frecuencia, y al contrario que los algoritmos, nuestra forma de conducirnos no es plenamente racional. Y de la explicabilidad de la inteligencia artificial sí que esperamos una argumentación racional.


Explicabilidad versus eficacia 


Una de las estrategias que se siguen en explicabilidad de la inteligencia artificial es la de intentar sustituir un algoritmo no explicable por otro de similares resultados que sí sea explicable. Por ejemplo, sustituir un sistema de deep learning por un árbol de decisión. Conviene saber, sin embargo, que con mucha frecuencia, esa sustitución no es posible (no existe un algoritmo explicable de similares resultados) o, cuando es posible, no es raro que los algoritmos no explicables sean mucho más efectivos.

Esto lo digo como una llamada al realismo y también como un aviso para no exigir la explicabilidad de manera indiscriminada y en casos en que no sea realmente necesaria.


La falsa sensación de seguridad


Pero hay algo más, y con ello voy a lo que ha inspirado este artículo y lo que en principio era su objetivo principal. Leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig veo una idea interesante: la falsa sensación de seguridad.

Siguiendo el mismo ejemplo de sustitución de una red neuronal por un árbol de decisión como forma de conseguir explicabilidad, apuntan los autores justo lo que decía yo más arriba, que en general una red neuronal (no explicable) es mucho más potente, mucho más rica y efectiva, que un árbol de decisión.

Nos podríamos quedar tranquilos con el árbol de decisión pero, como bien señalan los autores, eso puede suponer caer en una falsa sensación de seguridad porque, si el algoritmo original era una red neuronal era, precisamente, por su mucho mayor potencia y capacidad, porque está resolviendo un problema para el que, precisamente, no existen reglas claras, al menos reglas conocidas por los humanos.

Destacan con mucho acierto los autores que cuando elegimos machine learning (muchos de cuyos algoritmos son no explicables), lo hacemos precisamente porque abordamos problemas complejos y porque nosotros, los humanos, no disponemos de reglas claras para decidir y esperamos que el algoritmo encuentre el camino. 

O sea, y esto ya lo digo yo, elegimos un algoritmo de machine learning (digamos deep learning) porque como humanos somos incapaces de concluir unas reglas explícitas que pudiéramos programar en un algoritmo tradicional (ni siquiera de inteligencia artificial) y, sin embargo, pretendemos que la explicación sí que se base en unas reglas claras y comprensibles. 

Optar por un algoritmo más sencillo, porque es explicable, puede crear esa falsa sensación de seguridad.


Conclusión


Al final, y como tan a menudo digo, es importante el conocimiento y el rigor. No debemos exigir la explicabilidad de la inteligencia artificial de manera indiscriminada.

Debemos ser conscientes de que los algoritmos no explicables, no son opacos por ninguna maldad ni oscurantismo por parte de sus desarrolladores ni, por supuesto, porque esos algoritmos tengan algún tipo de voluntad porpia, que no tienen, y hayan decidido ocultarnos cómo toman sus decisiones. 

No. 

Son no explicables (no explicables en términos humanos) porque es la mejor forma que hemos encontrado hasta la fecha de resolver problemas complejos para los que los humanos no hemos sido capaces de encontrar unas reglas claras que programar de manera explícita y que harían al algoritmo perfectamente explicable por diseño.

Seamos conscientes de ello y no busquemos explicabilidad donde no es necesaria ni caigamos tampoco en la falsa sensación de seguridad.


No hay comentarios:

Publicar un comentario