Lo intento explicar en seguida pero antes tengo que hacer una advertencia: descubro no cierta sin sorpresa, que el término metaética ya existe y tiene su significado. Pero no, yo no lo conocía y, por tanto, no lo utilizo en ese sentido sino, simplemente, dando a entender un análisis ético de la propia disciplina de la ética de la inteligencia artificial.
Pero vayamos por partes.
La ética de la inteligencia artificial
La ética de la inteligencia artificial es, claro, un subconjunto de la ética y, en concreto, de la ética aplicada y, más en concreto aún, de la ética de los negocios y la tecnología.
No aporto gran originalidad, pues, al decir que la ética de la inteligencia artificial se ocupa de identificar y dar respuesta a las problemáticas morales que se derivan de la implantación y uso de soluciones de inteligencia artificial. Entre sus áreas de preocupación habituales se encuentran la privacidad, la explicabilidad de los algoritmos, los sesgos y la equidad, la autonomía de las personas, etc.
Y se trata de una disciplina en boga, con abundantes estudios y publicaciones y con trabajo en curso de naturaleza normativa y jurídica.
La ética se vuelve poco ética
Se trata de una disciplina interesante y necesaria. Sin duda.
Pero, y esta es la motivación del post, tengo la sensación de que lamentable y paradójicamente, no siempre se usa de una forma responsable ni ética en sí misma.
Y lo voy a intentar ilustrar con algunas situaciones que, debo confesar, me decepcionan o molestan, según el caso.
El miedo y la resistencia al cambio
La primera situación que identifico es habitual en todo tipo de cambio y es, claro, la resistencia a ese cambio, un fenómeno generalizado que ha dado lugar en el mundo empresarial a toda la disciplina de la gestión del cambio.
Y es, con frecuencia, fruto del miedo y del desconocimiento. A veces, también, de la defensa de unos intereses o un status quo que puede verse amenazado por la novedad. Pero, sinceramente, creo que con más frecuencia, y especialmente si hablamos de inteligencia artificial, estamos hablando de desconocimiento y miedo.
La complejidad inherente a esta tecnología unida a la abundancia de discursos confusos, erróneos y fantasiosos favorecen ese miedo que, en el fondo, es comprensible.
Y porque es comprensible, considero que, de todas las deformaciones de la ética de la inteligencia artificial es la más disculpable.
Sugeriría, no obstante, a cualquier persona a la que dominase ese miedo que intentase informarse, que intentase ejercer el tan traído y llevado pensamiento crítico y que fuera prudente y contenida en sus declaraciones. Y que no corriese, por ejemplo, a firmar una carta pidiendo la detención del progreso de la tecnología (esto es, confieso, una burda ironía que muchos lectores habrán entendido y que, si no es así, lo harán al final del post).
El postureo ético
Otra deformación es la que denomino el postureo ético. Este postureo creo que puede adoptar dos formas.
La primera es más bien de ámbito corporativo. Se trataría de organizaciones o empresas que hacen altisonantes declaraciones de preocupación ética, quizá publican declaraciones de principios, quizá incluyen elementos éticos en sus discursos corporativos y comerciales. Pero luego no llevan nada de eso a la práctica cuando no, y lo que es peor, su uso práctico de la algoritmia contradice esos supuestos principios éticos.
La otra forma de postureo ético tiende a ser más individual. Se trata de afirmaciones, en foros, redes sociales, etc sencillas y poco sofisticadas de preocupación ética pero que se reducen a una enumeración superficial, poco analizada y poco sentida, de los riesgos (se suele incidir en lo negativo) de la inteligencia artificial.
La ética rentable
Una tercera problemática es la que tiene que ver cuando la ética se convierte en un negocio en sí mismo...y eso puede llevar a intereses diferentes a los puramente éticos. Se me ocurre, bautizarla con un nombre inspirado en el cloud computing: EaaS, 'Ethic as a Service'.
Cuando hablo de esto no puedo dejar de pensar en dos casos, que no voy a explicitar, de personas que elaboran un discurso digamos ético pero, en mi opinión, bastante exagerado, bastante catastrofista y bastante generador de temor a los algoritmos, un discurso que es una especie de museo de los horroes de todo lo malo que pueden hacer los algoritmos...para, a continuación, ofrecerte servicios de consultoría o auditoría algorítmica.
Y claro, en este caso, me parece que es justo preguntarse acerca de ese discurso del miedo a los algoritmos y cuánto hay en él de advertencia ética y cuánto de discurso de marketing. Y algo en mi interior me dice que eso no está bien del todo...
La propuesta de moratoria
Y llego al cuarto caso, al que, claro, es el que ha servido de disparador para este post: la famosa carta firmada por personajes tan relevantes como Elon Musk, Steve Wozniak, Stuart Rusell, John Hopfield, Gary Marcus, etc
Una carta abierta, con solicitud de firmas, para solicitar una moratoria que detuviese durante seis meses el entrenamiento de los modelos largos del lenguaje posteriores a GPT4, mientras se establece una gobernanza de la Inteligencia Artificial.
Debo decir que vi el titular al principio de una mañana pero tenía tanto trabajo que hasta el final de la noche de ese día no la pude leer. Ansiaba ver qué podían decir personajes tan señalados, qué habían descubierto, qué gran riesgo existía que nos había pasado desapercibido y del que yo no era consciente y que obligaba a algo tan radical como esa moratoria. Esperaba una carta larga, razonada, quizá incluso difícil por una supuesta argumentación técnica y preocupante por sus conclusiones.
¡Qué va!
Se trata de una carta, o al menos eso me parece a mí, breve, sencilla y sin apenas argumentación. Y con base en eso, solo en eso, algo muy cerca de la nada, ¡Se pide, nada más y nada menos que una moratoria de 6 meses en una tecnología tan importante como la inteligencia artificial!
No ignoro el prestigio y fama de mucho de los firmantes pero, lo siento, a estas alturas no voy a comulgar con ruedas de molino, me las ofrezca quien me las ofrezca. No voy a aceptar, sin más, un argumento de autoridad. Quiero argumentos. Quiero datos. Y la carta no los contiene. Cuestionar la autoridad y pedir argumentos es la naturaleza del pensamiento crítico, ¿no?
Para mi tranquilidad, luego he visto que otros personajes muy relevantes del mundo de la inteligencia artificial como, por ejemplo, Yann LeCun o Andrew Ng se han manifestado claramente en contra de la carta. Y también he visto que la carta ha conseguido las que para mi son muy pocas firmas (1.732 en el momento en que escribo esto) para el renombre de los primeros firmantes y el eco que la carta ha tenido.
No voy a entrar en detalles pero cuando luego he repasado la lista de nombres, poco a poco he ido razonando uno a uno sobre eventuales motivaciones para esta carta... y, sinceramente, no me ha gustado lo que la intuición me ha sugerido y que, ya se puede imaginar el lector que tiene que ver con algún comportamiento ético.
Metaética: la ética de la ética
Y por todo esto, es por lo que creo necesaria una especie de ética de la ética de la inteligencia artificial y que, dada esa recurrencia, se me ha ocurrido llamarle metaética.
En el fondo, la ética es una sola. Si tienes verdaderas inquietudes éticas, si tu comportamiento está regido por valores, de verdad, esos valores te acompañarán siempre, tanto en tu día a día, como cuando analices la inteligencia artificial, como cuando te manifiestes hacia el exterior acerca de la ética de la inteligencia artificial. Estarás guiado o guiada por eso valores, por esa ética. Y esa es la verdadera ética
Conclusiones
En el fondo, la ética, la inquietud moral es única. Si la sientes, la aplicarás en todo. También en la inteligencia artificial y también en el análisis ético de la inteligencia artificial.
Pero te sugiero que estés atento o atenta y no presupongas que todo discurso que te hable de ética es acertado y ni siquiera ético en sí mismo.
Aplica siempre tu juicio crítico... y tu ética. La verdadera.