miércoles, 28 de febrero de 2024

Seis tipos de preocupaciones éticas que producen los algoritmos

Como comentaba en un post anterior, el titulado 'Un mercado de principios éticos',  el hecho de que la ética de la inteligencia artificial esté de moda, trae consigo el que abunden y de manera creciente, declaraciones de riesgos y de principios que, aunque coinciden y se superponen en buena medida, a veces parecen hacer algo inabarcable el dominio de la disciplina.

Así que puede venir bien un poco de estructura

Y una estructuración es precisamente la que me he encontrado y quería comentar leyendo el libro 'The ethics of artificial intelligence' de Luciano Floridi.


Una estructuración de preocupaciones éticas


En realidad, aunque lo recoge en su libro, Floridi se apoya en un artículo, 'The ethics of algorithms: Mapping the debate' del cual el propio Floridi es co-autor, aunque el autor principal (al menos el primero) es Brent Mittelstadt.

La estructuración se basa en la asunción por parte de los firmantes de que que los algoritmos se pueden utilizar, básicamente, para tres cosas, a saber:


  • Convertir datos en evidencias lo que lleva preocupaciones epistemológicas.
  • Motivar acciones que pudieran tener consecuencias éticas lo que conduce a preocupaciones normativas.
  • Asignar responsabilidad por los efectos de dichas acciones lo que nos lleva a preocupación por la trazabilidad.


Y con base en ello, identifican seis grandes tipos de preocupaciones éticas, que encajan en esas tres ideas dando lugar a la siguiente figura obtenida del propio artículo:


Fuente: 'The ethics of algorithms: Mapping the debate'. Mittelstadt et. al


Los seis tipos de preocupaciones


Y una breve descripción de dichas preocupaciones (en un resumen algo apresurado de lo que Floridi vuelca en su libro) podría ser:


  • Preocupaciones epistemológicas Relacionadas con la conversión de datos en evidencias se centran en la calidad y precisión de los datos y hasta qué punto las conclusiones de los algoritmos son justificables. Y en este terreno, se identifican tres tipos de preocupaciones éticas:

    • Evidencias no concluyentes ('inconclusive evidence'): Se refiere al hecho de que los algoritmos de machine learning no deterministas produzcan resultados expresados en términos probabilísticos, identificando relaciones de asociación y correlación pero no causales lo cual puede conducir a identificar patrones donde no existen y pueden desviar la atención de las verdaderas causas subyacentes a un problema. Además, se entiende que los resultados pueden estar parcialmente condicionados por los mecanismos de recolección de datos para su entrenamiento.

    • Evidencias inescrutables ('incscrutable evidence'): Se refieren a la falta de trasparencia debido a características tecnológicas (como pudieran ser los algoritmos de caja negra) o legales (protección de propiedad intelectual). En cualquier caso los autores entienden que eso se traduce en falta de supervisión y responsabilidad y conduce a falta de fiabilidad.

    • Evidencias equivocadas ('misguided evidences'): Se refieren fundamentalmente a la presencia de sesgos o a usos cuestionables de los algoritmos.

  • Preocupaciones normativas Se relacionan con la motivación de las acciones y se refieren al impacto ético de las decisiones adoptadas algorítmicamente o basadas en algoritmos.

    • Resultados injustos ('unfair outcomes'): se refiere a la posibilidad de resultados injustos que se entiende de cuatro formas diferentes según los autores: que no se utilicen las variables adecuadas en el entrenamiento para reconocer a ciertos colectivos, que la capacidad predictiva no sea igual para todo tipo de grupos, que el algoritmo no esté bien calibrado o que no se consiga una paridad estadística.

    • Efectos transformadores ('transformative effects') que afecten a autonomía o privacidad: Así, se entiende que la afectación a la autonomía puede venir de tres fuentes: omnipresencia y proactividad de los algoritmos para informar de las opciones del usuario, entendimiento limitado de los algoritmos por parte de los usuarios o falta de poder sobre los resultados de esos algoritmos. La afectación a la privacidad, por su parte, nace de la creciente interacción de personas con sistemas algorítmicos lo que reduce la capacidad del individuo para controlar quién tiene acceso a esa información y que puede conducir al perfilado del usuario, algo de lo que éstos pueden no ser del todo conscientes.

  • Trazabilidad: Se relaciona con la asignación de responsabilidad y se enfoca en la trazabilidad o cadena de eventos y factores que conducen a un resultado específico, buscando la atribución moral de responsabilidad.

Esta tipología merece, desde luego, una revisión crítica más profunda que lo que aquí he hecho, que es poco más que un resumen 'apretado' de la exposición que, en realidad, es bastante más amplia y pormenorizada. 

Pero, de momento, ahí lo dejo como una guía posible.


Conclusiones


Sin atreverme a afirmar que sea completa ni plenamente acertada (ni tampoco lo contrario), la propuesta de Floridi (y del resto de firmantes del artículo) parece una estructuración interesante por lo clara y estructurada.


domingo, 25 de febrero de 2024

Auto-regulación versus legislación

Como comentaba en algún post anterior, como en 'El escepticismo acerca de la ética de la inteligencia artificial', uno de los claros mecanismos para asegurar hasta cierto punto un comportamiento ético, era, lógicamente, el de la regulación, el establecimiento de leyes que forzasen al seguimiento de comportamientos considerados mayoritariamente como éticos y que previesen el 'castigo' en caso contrario.

Pero también mencionaba el mecanismo de la iniciativa empresarial e individual. Y esto, especialmente en su vertiente corporativa, nos lleva al concepto de la auto-regulación.


Las limitaciones de la ley


Pero ¿por qué la ley no es suficiente? ¿No deberíamos confiar en el mecanismo que de alguna forma ordena y regula toda nuestra sociedad, que se supone garantiza derechos y libertades?

Bueno, quizá pudiéramos pensar que así debe de ser, pero lo cierto es que la ley presenta algunas limitaciones. 

Quizá la más importante, especialmente cuando hablamos de tecnología y de la época actual, es la velocidad. Y no me refiero a la velocidad de su aplicación en juzgados, donde seguramente también tenemos un problema, sino velocidad de la pura legislación, velocidad para que la ley contemple los nuevos retos que trae consigo la tecnología que, ésta sí, avanza a toda velocidad.

Aunque no es necesario hacer una nueva ley para cada nueva tecnología porque, en muchos casos resulta de aplicación lo ya legislado para otras tecnologías o para otras situaciones no necesariamente provocadas por la tecnología, sí que es cierto que ante nuevos fenómenos, puede ser necesaria una nueva legislación y ésta, normalmente, precisa de meses o incluso años para crearse e implantarse. Mientras transcurren esos meses o años, podemos estar en un 'limbo' legal o claramente desprotegidos.

Diría que también pueden existir limitaciones en cuanto a alcance, cuando el legislador, por decisión política o por imposibilidad o inconveniencia prácticas, no regula todos los comportamientos y siguen quedando abiertas puertas para un comportamientos poco ético, pese a la existencia de la ley.


Los frameworks éticos y la auto-regulación


Y en ese ámbito, y bajo el impulso del nuevo liderazgo basado en valores, de la responsabilidad corporativa e incluso de los conceptos ESG, algunas empresas dan un paso al frente anticipándose a la regulación, extendiéndola o dándole un sentido más práctico, incluyendo mecanismos propios y voluntarios de control de sus propios procesos de generación y aplicación de soluciones como ocurre, específicamente en el caso de la inteligencia artificial y amparada bajo la filosofía de la ética por diseño.


El valor de la auto-regulación


En su libro 'The ethics of artificial intelligence', Luciano Floridi, analiza las situaciones en que tiene sentido esa auto-regulación y nos propone las siguientes:


  • No existe legislación (por ejemplo, en experimentación con productos de realidad aumentada)

  • Existe legislación pero que necesita de una interpretación ética (por ejemplo, para entender el derecho a la explicación en el GDPR)

  • Existe legislación pero necesita de un cierto contrapeso, en casos como

    • Es mejor no hacer algo, incluso aunque no sea ilegal (por ejemplo, automatizar completamente un procedimiento médico sin supervisión humana)

    • Es mejor hacer algo, incluso aunque no se exija legalmente (por ejemplo, mejores condiciones laborales para una 'gig economy')

En cualquier caso, Floridi deja claro que la auto-regulación no puede sustituir a la ley propiamente dicha y que su papel es complementario, aunque en ocasiones pueda resultar crucial.

Una llamada de atención


Eso si, conviene, a propósito de la auto-regulación y la iniciativa empresarial, recordar las llamadas de atención que hacía en el post 'El escepticismo acerca de la ética de la inteligencia artificial' acerca de la práctica del 'bluewashing', es decir, una operación más de imagen que de otra cosa, que consiste en aplicar mecanismos éticos en elementos superficiales pero mantener soluciones no éticas en el 'core' del negocio, así como del 'tuning' de principios éticos que comentaba en el post 'Un mercado de principios éticos'.


Conclusiones


Debemos considerar la auto-regulación por parte de empresas, administraciones e individuos como algo positivo y seguramente necesario para conseguir una, llamémosla, excelencia ética, pero esa auto-regulación, no puede sustituir, sino complementar a la ley y, además, debe aplicarse honradamente, buscando realmente los objetivos éticos y no como una mera operación de imagen.


miércoles, 21 de febrero de 2024

Un mercado de principios éticos

Es un hecho incontestable, creo, y lo he utilizado ya muchas veces como inicio de posts en este blog, que la inteligencia artificial está de moda

Y eso es bueno y malo a un tiempo. Nos trae efectos que juzgo como beneficiosos y otros que no lo son tanto.


La moda de la inteligencia artificial


Comenzando por la inteligencia artificial como disciplina científica y tecnológica, capaz de aportar soluciones prácticas el que esté de moda es en primer lugar positivo, simplemente, como síntoma de que se encuentra en imparable progreso, en la constante consecución de nuevos objetivos y nuevas metas, en un innegable progreso que puede traer, y trae de hecho, avance, innovación y bienestar.

Y es bueno que esté de moda porque atrae la atención de empresas, administraciones y particulares, y eso favorece su adopción con todos los beneficios que conlleva. Y porque eventualmente atrae también la inversión, favoreciendo, en forma de círculo virtuoso, su avance.

No es tan bueno, sin embargo, que de la misma forma que atrae la atención de actores con intereses legítimos, también abre las puertas a su uso (una apertura sin duda aprovechada) por parte de actores no tan bien intencionados, aunque eso es algo que ocurre con cualquier tecnología y avance, y lo único que es, quizá, específico del caso de la inteligencia artificial, como también lo es para usos legítimos, es su sofisticación y potencia.

Y no es tan bueno, tampoco, porque favorece el ruido mediático, las publicaciones faltas de rigor que generan confusión, mucha confusión, y en no pocas ocasiones, miedos injustificados, o al menos no del todo justificados por lo exagerados y poco fundamentados.  


La moda de la ética de la inteligencia artificial


Y también está de moda la ética de la inteligencia artificial.

Y eso es bueno en muchos aspectos. Es bueno, en primer lugar y de la forma más básica, por lo esperanzador que resulta el que se preste atención a una reflexión y una acción éticas, una reflexión y sobre todo una acción de las que creo que estamos tan necesitados, y no me refiero específicamente, ni siquiera principalmente, al campo de la inteligencia artificial.

Es bueno porque impulsa soluciones tecnológicas para conseguir un comportamiento más ético de los algoritmos, porque impulsa la regulación y porque impulsa, en algunos casos, los planteamientos éticos de empresas y administraciones.

Pero no es tan bueno porque, de la misma forma que sucede con los aspectos técnicos o de aplicación, sucede también en el caso de la ética la superficialidad, el 'hype', el hablar de ello por hablar, simplemente porque está de moda, pero con poco criterio y en no pocos casos, reforzando la visión negativa, temerosa, y en mi opinión contraproducente, de la inteligencia artificial.

En su libro 'The ethics of artificial intelligence', Luciano Floridi, nos advierte, un poco en ese sentido, de una suerte de inflación de principios éticos, de la proliferación de declaraciones y más declaraciones de principios éticos para la inteligencia artificial, unas declaraciones que en la mayoría de los casos no aportan nada nuevo y que se hacen simplemente, por subirse a un carro de la moda. No se trata de un riesgo grave, en mi opinión, sino de una especie de molestia que, eso sí, distrae un poco sin aportar nada nuevo.

Y existe también el riesgo del llamado 'bluewashing' que mencionaba al final de artículo 'El escepticismo acerca de la ética de la inteligencia artificial', es decir, de una actividad superficial de empresas y administraciones, sobre todo las primeras, en que, por subirse al carro de la moda y, sobre todo, por favorecer su imagen de empresa responsable, acometen acciones 'éticas' superficiales, como declaraciones de principios o alguna iniciativa social tangencial, pero sin alterar el núcleo de su comportamiento y de su producción o uso de soluciones de inteligencia artificial, que pudiera no ser tan ético, o al menos no prestar especial atención a lo ético.


Mercados de principios éticos


Un poco enlazando con la idea del 'bluewashing', el propio Floridi, en la obra citada, nos habla, como riesgo o incluso problema, de los que denomina mercados de principios y valores. Nos dice:


the main unethical risk is that all this hyperactivity creates a 'market of principles and values' where private and public actors may shop for the kind of ethics that best retrofits to justify their current behaviours rather than revise their behaviours to make them consistent with a socially accepted ethical framework.


Y justo a continuación nos lo define más formalmente, aplicándole ahora la denominación de 'compra de ética digital':


Digital ethics shopping [is] the malpractice of choosing, adapting or revising ('mixing and matching') ethical principles, guidelines, codes, frameworks, or other similar standards (especially, but not only, in the ethics of AI) from a variety of available offers in order to retrofit some pre-existent behaviours (choices, processes, strategies, etc), and hence justify them a posteriori, instead of impldmenting or improving new behaviours by benchmarking them against public ethicalstandards.


Es decir estaríamos ante una manipulación de los principios éticos en que las organizaciones 'compran' unos valores y unos principios éticos que 'les convienen', a su medida, unos valores y principios, diría que unos falsos valores y falsos principios, que les permiten seguir operando como ya lo hacían, que les permiten cubrirse de un barniz ético, sin revisar realmente sus comportamientos, y sin aspirar a una 'ética verdadera'.

Y eso es un riesgo más serio y probablemente, por desgracia, muy real.


Conclusiones


El que la inteligencia artificial en general y la ética de la inteligencia artificial en particular,  estén de moda, tiene unos efectos sin duda positivos, de conocimiento, promoción e impulso, pero también traen aparejados riesgos de superficialidad, de concepciones erróneas y, en el caso específico de la ética, de usos poco éticos camuflados bajo un manto de aparente moralidad y buenas intenciones.


miércoles, 14 de febrero de 2024

El escepticismo acerca de la ética de la inteligencia artificial

Que la ética de la inteligencia artificial es un tema de moda, no me cabe duda. De que se habla, por tanto, mucho de ella en todo tipo de foros, eventos y cursos, tampoco.

La cuestión en este post es, sin embargo, si avanzamos, realmente, en una implementación, adopción y uso de la ética de la inteligencia artificial o no, y si debiéramos ser escépticos sobre su  eventual desarrollo.


Las tres vías de abordar la ética de la Inteligencia Artificial


En varios cursos y charlas he destacado tres formas de abordar la ética de la inteligencia artificial, aunque, en realidad, siempre debiéramos considerar una cuarta que, en el fondo es la más intrínsecamente ética. Veamos.

Las tres formas en que, sobre todo, se puede operativizar la ética de la inteligencia artificial, son, en mi opinión:


  • Tecnología
  • Derecho
  • Iniciativa empresarial  e individual


Las tres anteriores en el fondo, y como digo, se centran más en operativizar la ética. La cuarta a añadir es la propia reflexión ética.

Paso a comentar muy brevemente las cuatro.


La reflexión filosófica y los valores


En realidad, la reflexión, la decisión acerca de lo que está bien o está mal, acerca de los valores que queremos promover, conservar y aplicar, es el origen de todo. A veces nos olvidamos de ello, y creo que es debido a dos motivos. 

Uno, que muchos valores ya están asumidos, integrados y dados por supuestos. Por decirlo  de alguna forma, porque heredamos una reflexión ética ya hecha. Así ocurre, por ejemplo, en Occidente, con todo lo que tiene que ver con la privacidad y el derecho a la intimidad. Son valores asumidos, pero no olvidemos que, de alguna forma, la reflexión ética ha sucedido, ha sido anterior y no olvidemos tampoco que, por ejemplo ese derecho a la intimidad y la privacidad consiguiente, no deja de ser una elección, que en Asia, por ejemplo, no se tiene la misma visión acerca de la individualidad.

Y, otro, que quizá, los propios filósofos, los especialistas en teoría en la ética, hacen sesudos y sin duda interesantes análisis, pero pocas veces nos marcan el camino a adoptar (como ocurre con frecuencia en filosofía, se preguntan más que contestan).

Añadiría que hay casos, que voy a obviar en este post aunque personalmente son los que más me interesan, muchos que tiene que ver con roboética y con la forma en que la tecnología desafía nuestra concepción sobre la propia naturaleza humana, en que ni siquiera tenemos unas respuestas claras, unos valores claros, una definición nítida de lo que puede estar bien o estar mal.

En realidad, a la hora de hablar de ética de la inteligencia artificial, lo habitual es obviar la reflexión ética propiamente dicha, partir de unos valores que damos por ciertos y asumidos, y ver cómo respeta o no la inteligencia artificial esos valores y qué podemos hacer en caso de que no sea así.

Y eso nos lleva a la operativización de la ética en inteligencia artificial y a las tres vías de su abordaje. 


La perspectiva técnica


Me gusta recordar que la tecnología aporta también soluciones.

Y me gusta hacerlo porque en muchos autores y muchos ámbitos, creo que con frecuencia motivado por desconocimiento e incluso sesgo cognitivo, se tiende a presentar a la tecnología y a sus creadores, como algo desalmado, creador de problemas y sin la más mínima sensibilidad moral. A veces se presenta a la tecnología, en este caso la inteligencia artificial, y sus creadores, normalmente referidos como los ingenieros, como algo simplemente malo o carente de sensibilidad.

Y, por supuesto, no es así.

Mucha gente ignora que existen algoritmos y herramientas, pensadas y desarrolladas por esos mismos colectivos que algunos consideran culpables, que de forma bastante efectiva permiten explotar los datos respetando la privacidad, o analizar los modelos y algoritmos para detectar y corregir sesgos.

Insisto, soluciones tecnológicas, a veces también metodológicas, para la ética.

Y aunque no siempre va a ser posible (por ejemplo, la cosa en materia de explicabilidad es bastante más compleja), siempre que podamos encontrar una solución tecnológica y automatizada para garantizar el uso ético, será probablemente la medida más efectiva.


El impulso jurídico


La segunda vía es la jurídica.

Con frecuencia digo, no sé si acertadamente, que la ley es el 'brazo armado' de la ética. Cuando tenemos claros unos valores, o unos comportamientos deseados, la forma de garantizarlos, desde luego no totalmente, pero sí en buena medida, es mediante la regulación, mediante la ley, mediante instrumentos jurídicos que obliguen a adoptar esos comportamientos y penalicen cuando no se haga.

Y, al menos en Europa, hay gran actividad en este sentido y, en concreto, ahora estamos en el momento de la famosa AI Act, recientemente consensuada.

Aunque en su momento leí un borrador del texto, confieso que aún no he podido sacar tiempo para leer el enunciado final y para leer suficientes opiniones autorizadas sobre ella.

Entiendo como bueno y necesario que exista esa ley (ese reglamento, en realidad), pero aún no tengo una valoración clara de si éste reglamento en concreto, es la regulación adecuada, si aplica correctamente los principios éticos, si es efectiva y si, al tiempo, no demoniza la tecnología y no impide la innovación y el avance.

En cualquier caso, desde luego, la vía legal está en marcha, al menos en la Unión Europea.


La iniciativa empresarial


Pero, y todos lo sabemos, la ley no puede cubrirlo todo y no es posible avanzar en ella con suficiente velocidad para estar a la par de los avances tecnológicos.

Y, probablemente, tampoco se puede regularlo absolutamente todo.

Queda entonces, creo yo, muchos espacio para el ir más allá de la ley, mucho campo para la ética y responsabilidad individuales y, sobre todo, para la aplicación de principios éticos en el ámbito empresarial, y en la propia administración pública, siguiendo la filosofía de la ética por diseño.

Se trata, o se debiera tratar, cuando se aplica, de una decisión ética y de valores de las organizaciones que deciden aplicar principios éticos en sus propios procesos de diseño, desarrollo, implantación y comercialización de soluciones basadas en inteligencia artificial.

Un comportamiento, desde luego loable, aunque tampoco conviene ser inocentes y conviene darse cuenta de que, valores aparte, y sin dudar de ellos, hoy en día la aplicación de principios éticos, u otros valores como el respecto medioambiental, tienen valor de mercado, son una forma en apariencia efectiva de marketing y de mejora de posición competitiva. 

Es algo así, como un win-win: somos éticos, lo cual es bueno en sí mismo, pero es que además, nos posiciona bien en el mercado.


El 'bluewashing'


Y en parte, ese valor de mercado, esa aspiración a una imagen de marca responsable, puede llamar a lo que a veces se denomina 'bluewashing', derivado del término 'greenwashing' de similar significado pero procedente este último del ámbito medioambiental y de la sostenibilidad..

Se trataría de hacer grandes declaraciones de valores y decálogos éticos, de aplicar puntualmente esos principios éticos en algunos proyectos aislados, de invertir en soluciones de impacto social positivo basadas en inteligencia artificial, quizá a través de fundaciones...mientras el 'core' de la actividad con soluciones de inteligencia artificial, continua al margen de la ética y sin respeto a elementos como, particularmente, la privacidad.


Escepticismo

 

Todo eso nos puede conducir al escepticismo sobre el eventual uso ético de la inteligencia artificial y sobre la efectividad e incluso la intención de las actividades en materia de ética de la inteligencia artificial. 

Así, por ejemplo, me encuentro en el libro 'The ethics of artificial intelligence' del filósofo italiano Luciano Floridi, la siguiente frase


People also spread scepticism about the possibility of an ethical framework that would synthesize what we mean by socially good AI. 


que parece recoger esa sensación de escepticismo en algunos sectores sobre la viabilidad de un armazón ético que conduzca a la aplicación responsable de la inteligencia artificial.


La ética de fondo


Personalmente, creo que sí es viable, y que vale la pena luchar por ello.

Pero no ignoro, y también advierto, de que más allá de tecnologías, leyes y metodologías, lo importante es el verdadero y profundo comportamiento ético o, por mejor decirlo, la asunción profunda y sincera de unos valores y la verdadera voluntad de un comportamiento ético.

Con frecuencia pienso que, permítaseme decirlo así, nos estamos 'poniendo estupendos' con la ética de la inteligencia artificial cuando, por desgracia, observamos comportamientos muy poco éticos en temas mucho más básicos y que afectan desde el día a día hasta, y de forma muy destacada, la acción política y la administración tanto pública como privada.


Conclusiones


Creo que sí, creo que es posible un armazón ético para la inteligencia artificial. Creo que, si nos lo proponemos, somos capaces de encontrar las soluciones técnicas, las metodologías y los instrumentos legales que garanticen el uso ético y socialmente responsable de la inteligencia artificial... y de cualquier otra tecnología.

Pero lo básico, lo realmente importante, lo que marcará el ser o no ser, es que exhibamos unos valores auténticos y profundos. Lo crucial es que, realmente, aspiremos a esa ética. 


miércoles, 7 de febrero de 2024

Sonrisas y lágrimas: los datos y el petróleo

En este mundo hiperconectado, en este mundo inundado de mensajes, en este mundo que por mor de la en su momento denominada web 2.0, que hoy casi nos suena a viejuna, todos tenemos, no ya el derecho a opinar, que por supuesto, sino la capacidad de hacerlo y llegar con facilidad y amplio alcance, nuestras ideas, pensamientos (¿pensamientos?) y propuestas (¿propuestas?) a todo el mundo mediante internet y las redes sociales, cuesta trabajo, paradójicamente, hacerse escuchar el sobresalir entre la marea de mensajes, posts, publicaciones, fotografías, declaraciones y noticias.

Y así, gana terreno el ansia por destacar, el titular, mensaje o frase sonora que nos convierta en algo más visibles, en más merecedores (¿merecedores?) de atención, dando lugar, incluso, a lo que se ha denominado 'economía de la atención'.

Y entre todo ese cúmulo de frases hechas, de mensajes que caben en un tuit (rebautizado ahora como 'post'), en un titular o en la declaración grandilocuente de directivos, speakers, consultores o periodistas, hay una que desde hace años me ha resultado especialmente odiosa, que me provoca lo que, casi poéticamente denominaré lágrimas aunque, en realidad es rechazo profundo. 


La frase odiosa: los datos y el petróleo


Y la frase, esa frase que se me ha hecho odiosa, que metafóricamente me hace llorar, por lo repetida y por lo, en mi opinión, inadecuada, es:


Los datos son el nuevo petróleo


Clive Humby
o en su versión original, formulada por el matemático Clive Humby parece que ya en 2006 


Data are the new oil


pero parece que, el texto algo más completo del británico era:


Data is the new oil. It’s valuable, but if unrefined it cannot really be used. It has to be changed into gas, plastic, chemicals, etc. to create a valuable entity that drives profitable activity; so data must be broken down, analyzed for it to have value.


Y leída al completo, el texto alcanza más sentido, desde luego mucho más que la forma en que la veo usada una y otra vez.


Motivos para odiar una frase


¿Por qué me resulta odiosa la frase?

Tengo que decir que la culpa no es de Humby. La frase, pronunciada (o escrita) por él y bien explicada, contiene dos mensajes sobre los datos que son ciertos: que son valiosos, en primer lugar, como también lo es el petróleo y, en segundo, que para extraerles ese valor deben  procesarse o, como diríamos en el caso del crudo, deben refinarse.

Así que la frase es correcta.

Pero me resulta odiosa, en primer lugar, y sobre todo, por su repetición hasta el hastío y con frecuencia fuera de contexto.

Relativa al hastío quisiera decir que las frases llamativas, los titulares, tiene su valor comunicativo y su interés cuando realmente nos sorprenden, nos impactan, nos llaman la atención. Cuando la misma frase, llamada a ser sonora y espectacular, la oyes repetida centenares de veces, escrita otros centenares de veces, la originalidad y la fuerza comunicativa se convierten en puro aburrimiento, en hastío. Y eso ha ocurrido, al menos para mi, con esta frase.

Pero, además, recalco el fuera de contexto, o podría decir que incompletitud porque cuando he oído esa frase, el aspecto del 'refino' de la necesidad de tratamiento de los datos, importante en la declaración original de Humby, se olvida y sólo parece querer transmitir la importancia de los datos en una economía digital.

Aunque realmente no es lo que más me importa, diría que hoy día resulta incluso un poco desafortunada. Y lo es porque, en una época en que por fin parece que nos hemos concienciado de la necesidad de cuidar nuestro planeta, del negativo impacto que sobre él tiene el uso de los combustibles fósiles (básicamente los derivados del petróleo), de la necesidad de una profunda transformación de nuestro modelo energético hacia uno mucho más sostenible y respetuoso con el medio ambiente, asimilar petróleo a valor y modernidad, resulta de un muy dudoso acierto. 

En fin, un poco para llorar, un poco para derramar unas lágrimas.


Floridi y motivos para la sonrisa


Pero la sonrisa me la ha producido encontrarme este tema en un lugar donde no me lo esperaba, a saber, en el libro 'The ethics of artificial intelligence' del filósofo italiano Luciano Floridi.

Y en efecto, no he podido evitar sorprenderme y también sonreír al leerle:


They say data are the new oil. I do not think so.


Luego, tras tan contundente declaración, dedica unas frases a explicar su posición. Y así, nos dice:


Data are durable, reusable, quickly transportable, easily duplicable, and simultaneously shareable (non-rivalrous) without end. Oil has none of these properties.


En este caso, parece que lo que Floridi destaca es la inexactitud de la comparación, en realidad la 'estrechez' como él la denomina:


So, the analogy is stretch, to say the least.


Luego recuerda el mensaje principal contenido en la frase de Dumby.


It is true that data, like oil, are a valuable resource. They must be refined to extract their value


y luego prosigue su discurso ya orientado hacia la inteligencia artificial y sus aspectos filosóficos y éticos.

En cierto modo, creo, esta mención a mi odiada frase, es accidental en el discurso de Floridi pero, tal vez por eso, encontrármela en su texto me ha hecho sonreír, tal vez queriendo percibir una lejana camaradería, un compartido rechazo e esta frase odiosa, no por sí misma, sino por cómo ha sido utilizada.


Conclusiones


Mi conclusión este particular 'sonrisas y lágrimas' es muy sencilla y la dejo en una petición:

Por favor, por favor, por favor, directivos, speakers, consultores y periodistas del mundo, no empleéis más la frase 'Los datos son el nuevo petróleo'. Hoy en día resulta aburrida, descontextualizada y desafortunada.

Sonreíd y buscad otra frase más acertada y original.


lunes, 5 de febrero de 2024

Ingeniería versus inteligencia: ¿Dónde estamos realmente en inteligencia artificial?

Uno de los elementos de la inteligencia artificial que la convierte en tan mediática y tan cautivadora, aunque a veces tan equívoca, es su paralelismo con la inteligencia humana, esa esa capacidad de emular tareas cognitivas en algunos casos, cada vez más, superándola.

El hechizo de una inteligencia emergente


Y esa inspiración, real, de la inteligencia artificial, especialmente en su faceta conexionista, en la inteligencia humana, esa asunción, real, de tareas cognitivas antes reservadas a los humanos, y esa capacidad, también real, de superar en algunos ámbitos a la inteligencia humana, lleva a veces a la fantasía, irreal, de suponer algo así como una inteligencia emergente, como que hemos sido capaces de crear un ente del que emerge sin nuestro diseño y gobierno una inteligencia casi natural, que no entendemos y que no controlamos.

Una fantasía reafirmada por los artículos, reportajes y charlas de tintes sensacionalistas que tanto abundan.

Pero realmente no es así


La inteligencia artificial como ingeniería


Realmente, los algoritmos que componen la inteligencia artificial, están diseñados, en el sentido de que una persona (o un grupo de personas) los ha pensado con criterio científico y matemático, los ha concebido con motivaciones, argumentos y experimentos. No surgen de la nada, no se los inventa nadie fuera de los seres humanos, no emergen por sí mismos.

En sentido amplio, podemos considerar la inteligencia artificial como una manifestación de la ingeniería (con independencia de la titulación que ostenten en cada caso quienes la ejercen), en el sentido de usar el conocimiento científico para resolver problemas reales de la vida también real.

Es cierto que los algoritmos de la inteligencia artificial son algo singulares en el sentido de mostrar capacidad de aprendizaje a partir de datos y experiencia (para eso están diseñados), capacidad de adaptación y una cierta autonomía.

Pero, a pesar de ello, no dejan de estar diseñados, dirigidos, de ser obra del ingenio humano, no una emergencia casi mágica o cuasi-divina de inteligencia sobre una base de silicio.

Y esto se recoge en una frase de Luciano Floridi es su libro 'The ethics of artificial intelligence'  cuando refiriéndose al Watson de IBM nos dice:


The fact that Watson (the IBM system capable of answering questions asked in natural language) could beat human opponents when playing Jeopardy! says more about the human engineers, their amazing skills and expertise, and the game itself than it does about biological intelligence of any kind.


Un canto a la inteligencia humana


Así es, en efecto.

Como he dicho en varias situaciones, charlas o cursos, y como creo haber recogido también en este blog, la inteligencia artificial no es, o no debe ser, la adoración de una inteligencia ajena a los humanos, no es la contemplación de un fenómeno de tintes cercanos a lo mágico y en cierto modo temibles.

La inteligencia artificial es, en esencia, ingeniería. E ingeniería viene de 'ingenio'.

La inteligencia artificial es, ante todo, un canto a la inteligencia humana y a lo que es capaz de concebir, diseñar y construir.


Conclusiones


Pese a los temores y las fantasías, pese a los mitos y discursos sensacionalistas, la inteligencia artificial no es magia ni emergencia, la inteligencia artificial es, ante todo, ingeniería, es diseño y construcción y es por ello todo un canto a la inteligencia humana.


Imagen de portada: Pedro Luis Garzón, ingeniero civil.

viernes, 2 de febrero de 2024

Seis propuestas a juristas para incrementar la confianza en la transformación digital

Asistimos hoy en día, y probablemente sea un hecho afortunado siempre que se haga correctamente, a una importante interacción y debate entre la tecnología y otras ramas de saber diferente, muy particularmente, la filosofía y el derecho


Tecnología, filosofía y derecho


¿Por qué esta interacción? ¿Por qué este foco en la tecnología, particularmente la inteligencia artificial, por parte de disciplinas otrora tan ajenas a la tecnología como son el derecho y sobre todo la filosofía?

Aunque en algún caso pueda existir, no lo niego, cierto oportunismo o cierto afán de notoriedad, lo cierto es que ese foco está muy justificado. Y está justificado por un lado por el cada vez mayor impacto que tiene en nuestra economía y sobre todo en nuestras vidas, y está justificado, por otro, porque los increíbles avances tecnológicos ponen en cuestión nuestro pensamiento actual en materias como la filosofía y el derecho

Aparejado al desarrollo de la tecnología aparecen nuevos fenómenos, nuevas situaciones que desafían nuestros principios éticos o que incluso nos cuestionan sobre el propio ser humano, nuestros objetivos, nuestra naturaleza y lo que es la famosa 'vida buena' de la que se ocupa la rama más vigorosa actualmente de la filosofía: la ética. Y por tanto, parece lógico, incluso necesario, hacer una reflexión seria y profunda sobre estos fenómenos de la mano de la visión más práctica y con los pies en la tierra de la filosofía, la ética aplicada

Y está justificado porque la tecnología habilita comportamientos y actuaciones que conviene estructurar, encauzar y en ocasiones limitar y para ello, cultura y educación aparte, el arma más ejecutiva de que disponemos es el derecho.

No son, por supuesto, éstas las únicas ramas del saber impactadas. En realidad casi cualquier disciplina se encuentra desafiada: la antropología, la psicología, la lingüística, el arte.. casi cualquier rama del saber, incluso las más tradicionalmente humanísticas se encuentra sujetas a una necesaria revisión y reflexión.


Las seis propuestas de Satya Nadella


Y si ahora nos centramos específicamente a la relación del derecho con la tecnología ¿Cómo debe ser esa relación? Y en concreto ¿Qué se le puede pedir al derecho, desde el lado de la tecnología?

Lo pregunto en esa dirección, tecnología->derecho, porque quiero traer a colación las reflexiones al respecto que expresa Satya Nadella, actual CEO de Microsoft, en su libro 'Hit Refresh'.

Mediado el libro, Nadella, tras repasar algunas de las problemáticas a veces éticas y a veces legales (o ambas) en que Microsoft se ha visto envuelto y explicar las decisiones adoptadas y el porqué de las mismas, se atreve a proponer a los juristas lo que denomina un 'framework'  que permita incrementar la confianza en esta era de transformación digital y ese framework incluye estas seis propuestas.


  • Control del acceso a datos: un mecanismo más eficiente para un cuidadoso acceso a los datos regulado por ley.

  • Mayor protección de la privacidad: pide una mayor protección de forma que la seguridad de los datos de usuarios y personas no se vea menoscabada en nombre de la eficiencia.

  • Estructuración de la recolección internacional de evidencias: en sus argumentaciones previas, algunos de los conflictos se han producido precisamente cuando se ha requerido judicialmente a Microsoft aportar información de sus usuarios, una obligación que cambia según los países pero que en un mundo digitalizado y que opera en la nube no es tan claro cómo se debe actuar, de ahí la petición de una estructuración o armonización.

  • Diseño para la trasparencia: Indica que en los últimos años, las empresas tecnológicas se han asegurado de publicar información agregada del número y tipo de requerimientos de evidencias que han recibido y pide que las administraciones aseguren esta forma de transparencia y también que los usuarios puedan saber cuándo se ha requerido a la empresa tecnológica información sobre ellos. 

  • Modernización de las leyes para ponerse a la par de la tecnología: Simplemente, al menos simplemente en la forma de expresarlo, pide que la ley y las instituciones jurídicas se pongan al día de forma que sus requerimientos tengan más sentido en el entorno actual, por ejemplo, en un modelo descentralizado y cloud.

  • Confianza a través de la seguridad: afronta las quejas de algunas agencias legales que se quejan de que mecanismos como el cifrado dificultan el acceso a la información. Sin embargo, Nadella hace notar la importancia de esos mecanismos para proporcionar seguridad y confianza y pide que nos se erosione esa protección. 


Recordando el contexto


Se esté de acuerdo o no con las propuestas de Nadella conviene, sin embargo, tener en cuenta algunos elementos de contexto antes de juzgarlas.

Por un lado, evidentemente, habla el CEO de una empresa tecnológica con lo que, por supuesto, expresa un punto de vista de, por así decirlo, una de las partes.

Habla, además, desde una perspectiva multinacional pero que se asienta en EEUU, y recordar que, por ejemplo, el RGPD, tan relacionado con los datos y la privacidad, es europeo.

Finalmente, decir que el libro donde se recogen esas ideas fue publicado en 2018 y, aunque probablemente las ideas de Nadella son suficientemente generalistas como para que hoy día las mantuviera en su esencia, ha habido cambios y avances notables tanto, por supuesto, en tecnología, como en regulación.


Conclusiones


Es sana y muy necesaria la interacción entre disciplinas y, dado el enorme impacto actual de la tecnología, parece razonable la atención, reflexión y en alguna ocasión, acción, recibida desde otras disciplinas y áreas de conocimiento, particularmente el derecho y, en ese ámbito, hemos revisado las propuestas de Satya Nadella, CEO de Microsoft.