El problema del control de la Inteligencia Artificial
Del problema del control ya hablamos hace tiempo a propósito del libro 'Human Compatible' de Stuart Russell que, de forma significativa, se subtitulaba 'AI and the problem of control'. Russell es uno de los autores que considera posible el advenimiento de esa superinteligencia y que piensa que debemos centrarnos en que actúe de acuerdo con los objetivos e intereses humanos y que permanezca bajo nuestro control.
En esencia, el problema del control consiste en asegurar que los seres humanos conserven un cierto poder sobre las máquinas y sobre su autonomía, pudiendo abortar o reorientar comportamientos inapropiados.
Estos comportamientos inadecuados se pueden producir por una eventualmente incorrecta o incompleta formulación de objetivos para una máquina. como sería el caso del experimento mental propuesto por Nick Bostrom en que una superinteligencia cuyo objetivo es maximizar la producción de clips, sin más restricciones, y la máquina puede acabar considerando que la propia existencia de los humanos le dificulta maximizar esa producción de clips... y actúa en consecuencia.
Aunque este experimento mental es en sí mismo poco creíble, sin embargo el trasfondo de lo que quiere exponer sí que lo es. Si un algoritmo no está suficientemente bien formulado y eventualmente limitado, puede producir resultados adversos imprevistos. Por ello es necesario mantener control.
En otra visión más fantasiosa, es necesario mantener el control para evitar una eventual rebelión de las máquinas como se describe en tantas películas y novelas de ciencia ficción. En este caso no se trata de un algoritmo inadecuadamente formulado sino de una eventual voluntad consciente de dominio por parte de las máquinas. Este escenario es dudoso a largo plazo y claramente imposible a corto, pero crea inquietudes y, si se opina que realmente la superinteligencia llegará y tendrá alguna forma de voluntad, es evidente que la raza humana estaría en peligro y querríamos mantener el control.
El segundo escenario es poco relevante a corto y medio plazo, pero con el primero, trasladado a situaciones más reales (ejemplo, control de armas tácticas o ciberguerra) y no tanto al experimento mental de Nostrom, creo que es suficiente para darle importancia a ese problema del control.
Formas de control de la inteligencia artificial
En el libro 'This is technology ethics: an introduction' de Sven Nyholm se aborda el problema del control. Se trata de un libro sobre ética y, por tanto un libro de filosofía escrito por un filósofo. Sin embargo, algo que caracteriza a este autor y que me gusta mucho es que, sin dejar de ser filósofo, parece entender muy bien la tecnología y no cae en concepciones erróneas ni fantasiosas tan comunes en otras fuentes, sino que sus razonamientos, siempre filosóficos, se ajustan muy bien a la realidad técnica.
Pues bien, en ese libro, Nyholm nos habla de cuatro formas de control. Son las siguientes:
- Control de capacidad: Es quizá la forma de control en que primero pensamos. Adopta dos variantes. La primera, que es la que más se corresponde con el nombre, consiste en limitar lo que el algoritmo o la máquina puede hacer, evitando los daños y la pérdida de control. La otra variante, quizá la más popular es, simplemente, el 'botón de apagado', es decir, la capacidad para desactivar una máquina o algoritmo si ésta empieza a comportarse de manera inadecuada.
- Encierro ('box in'): Algo relacionada con la primera variante anterior, consiste en establecer unos límites fuera de los cuales la máquina no puede actuar o a los que no puede extenderse.
- Oráculos: En este caso, en paralelo con el sistema a controlar, y antes de su puesta en funcionamiento, ponemos otro sistema de inteligencia artificial cuya misión es predecir lo que el sistema más potente a controlar pudiera ser capaz de hacer. De esta forma, se podría evitar construir algo que, por decirlo de alguna manera, 'se nos pueda ir de las manos'.
Como nos explica Nyholm, sobre estas tres formas de control pesa de todas formas la sospecha de que, seguramente, pueden funcionar bien frente a una inteligencia artificial todavía relativamente modesta (considero modesta la que tenemos hoy en día, aunque algunas cosas que consiga sean asombrosas), pero que pudieran ser superados por una superinteligencia realmente general, potente y autónoma.
Las teorías de Yampolskiy sobre control de la inteligencia artificial
Nyholm nos resume también brevemente el pensamiento de Roman Yampolskiy, autor de libros y artículos sobre seguridad en Inteligencia Artificial. Yampolskiy piensa en un curioso equilibro según el cual, si queremos una inteligencia artificial segura no podemos controlarla completamente y si preferimos optar por el control, esa inteligencia artificial no sería tan segura.
Yampolskiy, aplicando el control al caso de vehículos autónomos y del caso en que un humano quiera que el coche se detenga, indica que serían posibles cuatro opciones de implementación de ese control:
- Control explícito: El coche se detiene de forma inmediata cuando recibe el comando de parar, lo cual, sin embargo, no es probablemente lo realmente deseado si nos encontramos en una autopista a alta velocidad y sería realmente peligroso.
- Control implícito: El coche se detiene pero buscando una forma segura de hacerlo, por ejemplo, cuando pueda desviarse a una gasolinera. Es más segura, pero da al coche una cierta capacidad de decisión propia.
- Control alineado: El coche interpreta que es lo que realmente quiere el humano, por ejemplo, ir al baño y entonces se detiene cuando ese objetivo subyacente se pueda satisfacer, lo que en este caso podría llevar a detenerse, de nuevo, desviándose a una gasolinera. Hemos dado otro gran paso en la autonomía del coche, y por ende menor control por el humano.
- Control delegado: El coche no recibe una instrucción explícita sino que tiene iniciativa para deducir lo que es mejor para el humano. En este caso el control es prácticamente nulo.
Se observa formas paradójicas, por ejemplo, el caso del control explícito, en que el mantener el control, sin embargo, conduce a una forma menos segura de inteligencia artificial y parece que, sin embargo, podemos aumentar la seguridad delegando más capacidad de decisión, más autonomía al vehículo y menos control, si se quiere, al humano.
Según esta paradoja, Yampolskiy piensa que, quizá, el problema del control podría ser un problema realmente irresoluble.
Conclusión
El problema del control de la inteligencia artificial, a pesar de lo que en una visión a bote pronto pueda parecer, es un problema complejo.
Las teorías expuestas hablan del control de una forma que considero rigurosa pero todavía en alto nivel y en un planteamiento casi filosófico. Para ir a realidades necesitaríamos bajar al plano técnico esas ideas, analizando su implementación real. Estoy seguro que llegando a ese nivel, en algún caso el problema se podría simplificar, pero también, y más probable aún, que descubriríamos nuevas dificultades y nuevas paradojas.
Pero incluso en el alto nivel que hemos adoptado, ya se percibe que el problema del control es menos evidente y sencillo de lo que parece.
Y sin embargo, vale la pena, y mucho, desarrollarlo, no tanto por las visiones de ciencia ficción de rebelión de las máquinas, sino porque ya algoritmos y máquinas inteligentes, dada su cierta autonomía, podrían causar efectos adversos no previstos y es necesario conseguir disponer de máquinas y algoritmos seguros.