viernes, 30 de junio de 2023

ChatGPT y la externalización de capacidades cognitivas. ¿Debemos preocuparnos?

¿Cambia la tecnología el comportamiento de nuestro cerebro? Y caso de ser cierto ¿debemos preocuparnos?


Preguntas, preguntas, preguntas


¿Cambia, y quizá empobrece la tecnología en general y la inteligencia artificial en particular, nuestras capacidades cognitivas, nuestras capacidades para memorizar, para razonar, para reflexionar, para definir estrategias o para crear?

Dicho, quizá más 'a lo bestia': ¿Nos hace la Inteligencia Artificial más tontos? Y caso de respuesta afirmativa ¿debería preocuparnos? ¿Deberíamos preocuparnos por el auge de ChatGPT, o por mejor expresarlo, de  la inteligencia artificial generativa de la cual ChatGPT es sólo como el primer síntoma y aldabonazo público?

Para algunas de las preguntas anteriores parecen existir respuestas. En concreto, la respuesta a la primera pregunta, si la tecnología, o por mejor decirlo, el uso de la tecnología, afecta a nuestros cerebros, parece existir razonable consenso de que la respuesta es afirmativa y en ese respecto existe, por ejemplo, la preocupación por el hecho de que el auge de la conectividad y las redes sociales, de elementos donde predominan los mensajes muy cortos como Twitter; Instagram o WhatsApp, por ejemplo, o el fenómeno del 'always-on' y el 'multitasking' están haciendo que perdamos capacidad de concentración, capacidad para fijar la atención mucho tiempo en una tarea y quizá para la reflexión profunda.

Para las otras preguntas la respuesta seguramente no esté tan clara.

En concreto, en este post me voy a fijar en la respuesta a la pregunta quizá más espinosa: suponiendo esa modificación y que esa eventual pérdida de capacidades cognitivas se produzca ¿debemos preocuparnos?

Probablemente cualquier lector tenga, al leer la pregunta, el impulso inmediato de  responder con un rotundo sí: claro que debemos preocuparnos y claro que debemos hacer algo al respecto.

Y confieso que mi impulso personal es exactamente ese, preocuparme, y mi intención personal la de cuidarme para mantener mis capacidades cognitivas intactas e incluso potenciarlas en la medida que mi propia naturaleza y sobre todo mi edad me lo permitan.

Pero cuando lo pienso racionalmente, fríamente y con perspectiva, la respuesta me parece, sorprendentemente, menos clara. Y la argumentación, el razonamiento que me hace ver menos clara la respuesta racional, se basa en la idea de la externalización de funciones.

Recorramos poco a poco el argumento.


El ser humano autosuficiente


Si pensamos en el hombre primitivo, podemos pensar, con cierta seguridad, que era autosuficiente o bastante autosuficiente. 

Depende, claro, de la época histórica concreta, de la zona concreta y de la cultura concreta, pero, sin meterme en análisis antropológicos profundos para los que no me siento capacitado, creo que no resulta difícil admitir que ese hombre primitivo era autosuficiente en el sentido de que reunía en sí mismo las capacidades que necesitaba para sobrevivir. Sabía recolectar frutas y plantas, distinguiendo las comestibles de las que no, sabía elaborarlas y cocinarlas, aunque fuese de manera tosca, sabía cazar, sabía encender fuego, sabía encontrar refugio, sabía defenderse de sus enemigos.  

Es decir, cada persona era autosuficiente, tenía todas las capacidades que necesitaba para vivir y sobrevivir.


La división de funciones como externalización


Una primera externalización, probablemente muy temprana, se produce con la división de funciones. 

En el ámbito familiar, y obligado parcialmente por la propia biología, por la maternidad y la crianza de los hijos, a la mujer le toca quedarse más tiempo en casa o en el poblado, y concentrarse en tareas domesticas o agrícolas. Y al hombre asume con más frecuencia las labores de caza o de guerra. Aventuro, y sólo aventuro porque me falta perspectiva histórica y antropológica para afirmarlo con certeza, que esta división, inicialmente muy práctica y razonable, evolucionada en el tiempo y adornada con elementos culturales, ha sido el origen de la discriminación posterior de la mujer. Pero ese es otro tema. Volvamos a la externalización.

Además de la división de funciones dentro de las familias, poco a poco se produce una cierta división de funciones dentro de las tribus y poblados. Y así, poco a poco, no todos los hombres son guerreros sino que algunos, por ejemplo se convierten en artesanos de la forja del hierro, el tratamiento de las pieles o lo que sea.

Y, claro, a medida que evoluciona esa división de funciones, el individuo pierde autosuficiencia y capacidades. Así, por ejemplo, las mujeres y los artesanos, se supone que pierden la capacidad guerrera, parte de la fuerza física, la destreza en el uso de las armas o la maña en la lucha. 

¿Debería haber preocupado eso al individuo?

Pues en parte si, porque individualmente se hace más vulnerable, está más indefenso ante un eventual ataque. Y por su parte, los guerreros se hacen más dependientes, porque necesitan a los artesanos para que les hagan las armas que ellos ya no saben hacer o a las mujeres para que elaboren unos alimentos que ellos ya no saben cocinar.

Y, sin embargo, desde un punto de vista económico y social, en el fondo es un avance y enriquece y favorece a todos los miembros de la tribu, del poblado o de la ciudad en su conjunto.


La idea del apalancamiento


En el fondo, lo que ocurre es la idea del apalancamiento que se utiliza en el mundo empresarial. 

Apalancarse es utilizar recursos externos, no propios. Así, se habla de un apalancamiento financiero cuando una empresa se endeuda (utiliza recursos financieros ajenos) y de apalancamiento operativo cuando externaliza trabajos (utiliza recursos humanos, técnicos y operativos de otras empresas).

¿Por qué una empresa se apalanca? 

Pues porque eso le da mayor potencia, mayores capacidades. Si no hace apalancamiento financiero, por ejemplo, probablemente no tenga la capacidad de inversión necesaria para, no sé, abrir una nueva fábrica o lanzar al mercado una nueva línea de productos y servicios.

No hace falta ir muy lejos para entenderlo. Pensemos en la hipoteca de una casa. ¿Cuántas personas serían capaces de comprarse una casa sin recurrir a un préstamo bancario, a una hipoteca? Muy pocas ¿verdad?

Bueno, pues tener una hipoteca es una apalancamiento financiero y capacita a los individuos para adquirir una casa, es decir, les ha dado mayor potencia.

En cierto sentido, la división de funciones, el que otros se especialicen en hacer mejor que tú una tarea y recurrir a ellos es una externalización y una forma de apalancamiento, en este caso operativo.

Y te da mayor potencia.


La externalización en empresas


En el mundo moderno, la empresa es un ente fundamental de la vida económica y de la vida en general.

Y en estas sociedades modernas ya no externalizamos funciones normalmente en una persona sino en empresas. Las empresas se especializan en fabricar coches, o en cultivar cacahuetes, en transportar bienes y servicios o en limpiar calles, en ofrecer espectáculos deportivos o en publicar libros, en desarrollar software o en hacer anuncios.

Hemos llegado a una externalización masiva de funciones y capacidades y cada uno de nosotros es muy poco lo que puede hacer por si mismo. Dependemos, y dependemos mucho. El hombre moderno, si quedase fuera de su contexto, probablemente perecería.

¿Debemos preocuparnos? 

Actualmente somos cualquier cosa menos autosuficientes, dependemos de todo el entramado social y económico. Individualmente hemos perdido muchas capacidades: apenas un puñado de personas saben hoy día encender un fuego, distinguir setas venenosas de las que no lo son, cultivar hortalizas, cazar, despiezar un animal para luego cocinarlo y comerlo y así un largo etcétera.

Y, sin embargo, no nos va mal, al menos si miramos a cómo le iba a nuestros antepasados. Si, hemos perdido capacidades individuales pero hemos ganado y mucho como sociedad... y como individuos que pertenecen a esa sociedad.

Y lo hemos hecho mediante apalancamiento, mediante externalización. 


La externalización en la tecnología


¿Y la tecnología? 

Pues es otra forma de apalancamiento.

El propio término apalancamiento viene de palanca, es decir una de las primeras máquinas sencillas que multiplican la fuerza de una persona.

Y es que la tecnología, en general, hace eso, potencia nuestras capacidades o nos da capacidades nuevas en las cuales nos apalancamos para ganar potencia aunque, con frecuencia, sea a costa de perder nuestras capacidades propias. En un caso muy sencillo, si utilizas palancas físicas, probablemente pierdas masa muscular en tus bíceps, porque los desarrollas menos. ¿Te preocupa? Probablemente, salvo que seas culturista, la respuesta es negativa. 

En la tecnología más tradicional, por decirlo de alguna manera, una tecnología más mecánica y de ingeniería, las capacidades que externalizas suelen ser las relacionadas con trabajos físicos, con la fuerza y la habilidad para tratar y transformar materiales o elementos naturales físicos.

Pero claro, desde hace unas décadas surge la tecnología digital, las tecnologías de la información en donde lo más importante no es lo tanto lo físico sino lo lógico, no son los materiales sino la información.

Y eso nos lleva a externalizar en la tecnología no capacidades que tienen que ver con nuestra fuerza y nuestras habilidades, nuestro cuerpo, sino con nuestra memoria, nuestro pensamiento, nuestras capacidades cognitivas, nuestro cerebro.

Hemos asumido con facilidad y alegría la pérdida de ciertas habilidades cognitivas. Generalizadas primero las calculadoras y luego los ordenadores, ya no nos preocupa mucho no ser buenos en cálculo mental o no saber hacer con lápiz y papel una división o una raíz cuadrada.

Generalizado el uso de los smartphones con su agenda de contactos, no nos preocupa no recordar los números de teléfono de familiares y amigos, porque están en la agenda

Generalizado el uso de Google Maps o herramientas similares, no nos preocupa no saber ir en coche a distintos puntos de nuestra ciudad o de otra ciudad incluso en otro país porque ya nos guía Google.

Generalizado Internet, la Wikipedia o los buscadores, ya no nos preocupa mucho no recordar de memoria fechas históricas, nombres de personajes, conceptos o fórmulas, porque una búsqueda simple y rápida lo va a poner delante de nuestros ojos.

Estamos apalancándonos en tecnología digital y externalizando memoria y capacidades cognitivas.

Y, al hacerlo, vamos perdiendo en parte esas capacidades cognitivas a nivel individual, pero las ganamos como sociedad y, en cierto sentido también como individuos no de forma independiente y autónoma sino acompañados, claro, del smartphone y la conexión a Internet.

¿Debemos preocuparnos?


La siguiente externalización


Y ahora aparece la Inteligencia Artificial Generativa y su punta de lanza, ChatGPT. Y nos encontramos con una tecnología capaz de contestar a preguntas complejas, de crear textos o imágenes con solo unas pocas pistas, que es capaz de redactar una noticia, un correo, un post o un trabajo de clase. Que sabe o parece saber, desarrollar código, componer música o esbozar un guion cinematográfico. Que sabe resumir un texto, traducirlo o adoptar roles diferentes. Y que, por lo tanto podemos usarla, podemos apalancarnos en ella, para todo ese tipo de tareas y muchas más. Y eso solo para empezar a hablar porque tiene ya muchas más opciones y las que iremos descubriendo en el inmediato futuro.

Una tecnología que parece entender, integrar conocimiento, pensar y crear en ocasiones bastante mejor que el humano que la interroga.  

Sin duda, se trata de un potente apalancamiento. Un apalancamiento en capacidades cognitivas que nos aporta la inteligencia artificial generativa. Y que, sin duda, nos potencia y nos hace progresar.

Pero ¿Qué estamos externalizando ahora? ¿Investigación? ¿Composición? ¿Abstracción? ¿Resumen? ¿Razonamiento? ¿Creatividad?

Quizá estamos externalizando capacidades cognitivas superiores, capacidades que con frecuencia hemos pensado que nos caracterizaban como humanos. Y al externalizarlas, puede suceder como con nuestra capacidad para encender un fuego, para distinguir las setas venenosas, o con el tamaño de nuestro bíceps. Es decir, podemos perder esas capacidades porque las hemos externalizado, en este caso en la tecnología generativa. A cambio, seremos más potentes como sociedad e incluso individualmente, pero sin separarnos, eso si, ni de nuestro smartphone, ni de la conexión a Internet ni de nuestra inteligencia artificial generativa.

¿Debemos preocuparnos?


Conclusiones. ¿Debemos preocuparnos?


Dejo la pregunta abierta.

Si seguimos el mismo razonamiento que con el resto de tecnologías y externalizaciones históricas, parece que no deberíamos preocuparnos. Que si, nos hacemos más dependientes y con menos capacidades en este caso cognitivas, pero que progresamos como sociedad e, incluso, como individuos, aunque aumentando nuestra dependencia, en este caso de la tecnología.

Tengo la sensación de que, en efecto, nos acostumbraremos y nos parecerá natural. Y mientras más joven sea la persona, con más naturalidad asumirá esa externalización y dependencia de la tecnología cediendo parte de las capacidades cognitivas propias.

Sin embargo, confieso que si pienso en mi mismo, 'no me hace gracia' esa pérdida de capacidades cognitivas. 

No tengo claro si preocuparme o no, pero como aprecio mucho mi cerebro y capacidades cognitivas, como además estamos en el nacimiento de un fenómeno que no sabemos muy bien cómo va a evolucionar y como los 'experimentos es mejor hacerlos con gaseosa', aunque voy a utilizar sin duda y cada vez más la inteligencia artificial generativa y animo a todos a hacerlo, prefiero, al mismo tiempo, no delegar en exceso y seguir cuidando al máximo mi cerebro y mis capacidades cognitivas.


miércoles, 28 de junio de 2023

Implicaciones morales de una Renta Básica Universal

Aunque no con una gran fuerza, al menos últimamente, está sobre la mesa de tertulias y eventos, y ocasionalmente del debate político, la conveniencia o no de la existencia de una Renta Básica Universal.

En este post, comento un poco el concepto y sus motivaciones pero, sobre todo, apunto alguna implicación moral quizá no del todo evidente o que al menos no veo que se suela manifestar.

 

La hipótesis de la automatización masiva


La idea de una eventual renta Básica Universal surge un poco como respuesta ante el temor de un desempleo masivo, estructural y permanente debido, fundamentalmente, a una automatización también masiva.

El avance de la automatización parece innegable y, en mi opinión, es en conjunto deseable, aunque pueda traer consigo algún efecto colateral negativo. Que esa automatización llegue a ser masiva, es algo que tiene lógica pero que tenemos que ver si se realmente se produce.

Y lo que no está tan claro es si una automatización masiva conduce a un desempleo igualmente masivo. Está la visión pesimista que piensa que sí, y la optimista, más predominante en el discurso público, que piensa que, aunque se destruya empleo, se crea otro empleo nuevo siendo el balance neto positivo.


La Renta Básica Universal


Y, ante la eventualidad de ese desempleo masivo, estructural y permanente, se pone encima de la mesa la creación de la denominada Renta Básica Universal ('Universal Basic Income').

En mi libro 'Robots en la sombra', en su último capítulo, me ocupé brevemente del problema de la eventual automatización masiva, del desempleo masivo y de la posible implantación de una Renta Básica Universal. Allí daba una explicación del concepto diciendo que la Renta Básica Universal


se trata de una suerte de sueldo que un país pagaría a sus ciudadanos por el mero hecho de serlo y sin trabajar para ello.


En efecto, esa es la idea: ante la hipótesis de la imposibilidad de tener un empleo y, por tanto, rentas procedentes del trabajo, se plantea una renta por el mero hecho de existir y ser ciudadano de un estado que haya implantado este sistema.

En 'Robots en la sombra' explico que esta idea de la Renta Básica Universal, debería ser, por lógica, económicamente viable, aunque también expreso mis reservas ante nuestra capacidad real para implantarlo de forma satisfactoria, con miedos especialmente en el periodo transitorio.

Pero no me extenderé más sobre este particular.


Perspectivas económicas y psicológicas de la Renta Básica Universal


En  'Robots en la sombra', también hacía alguna consideración acerca del impacto psicológico en la persona de ese vivir sin empleo, sin actividad, consideraciones que también reflejé en este mismo blog en el artículo 'El propósito del trabajo y el impacto de la automatización'.


Perspectiva moral de la Renta Básica Universal


Pero en este post quería sobre todo mencionar alguna implicación moral que se suma a las económicas, sociales y psicológicas.

Y estas consideraciones las encuentro leyendo el libro 'Estupidez artificial' de Juan Ignacio Rouyet.

En efecto, este autor nos plantea dos formas de implicación moral. Por un lado nos habla de la pérdida de libertad individual que una eventual Renta Básica Universal puede suponer. Nos dice:


Cuando dependemos de una subvención, pierdes parte de tu libertad, pues recibes una renta, pero dejas de tener acceso a los medios que generan tal renta. Pasas a depender de aquel que te da la pensión.


Una observación que me parece más que pertinente y que resulta preocupante pensando en el individuo pero también en la salud democrática de una sociedad.

Pero Rouyet va más allá y, justo a continuación, añade unas consideraciones que hacen mención a la responsabilidad y reciprocidad. Este es el argumento:


se ponen en peligro los principios de responsabilidad y reciprocidad. Cuando recibes algo a cambio de nada, no hay reciprocidad en el intercambio y se desbalancea la responsabilidad, porque pasas a tener derechos sin obligaciones. El derecho de recibir un ingreso sin la obligación de hacer algo.


La verdad es que se trata de dos grupos de objeciones serias que no son  en absoluto baladíes ni de fácil respuesta y que se añaden a otras dificultades.


Conclusiones


No está clara que la hipótesis de la automatización masiva y mucho menos de un desempleo masivo y estructural se conviertan en realidad. Pero si lo hiciesen, es evidente que habría que tomar medidas drásticas y la que tiene más predicamento es la implantación de una Renta Básica Universal

Sin embargo, y aunque una Renta Básica Universal pueda parecer a muchos, 'a bote pronto' una suerte de paraíso, está aquejada, por una parte, de unas evidentes dificultades económicas y prácticas y, además, de serias implicaciones psicológicas e incluso morales, como acabamos de ver. 

Y esto lleva a cuestionarse aún más la conveniencia de una Renta Básica Universal o, caso de convertirse realmente en imprescindible, cómo implantarla de una forma que sea, ya no sólo económicamente viable, sino también socialmente responsable y éticamente aceptable. 


lunes, 26 de junio de 2023

El problema profundo del sesgo y la discriminación algorítmica

Cuando hablamos de las problemáticas éticas ligadas a la inteligencia artificial  una de las más recurrentes, quizá junto con la privacidad y la explicabilidad, sea la que tiene que ver con el sesgo algorítmico.

En este post vamos a hablar un poco de este problema, de su origen y soluciones y, sobre todo, hacer patente que a lo mejor no siempre estamos teniendo en cuenta el problema más profundo ligado al sesgo y la discriminación.


La idea de sesgo


Pero vayamos por partes. ¿Qué es el sesgo algorítmico?

Bueno, sin buscar una definición especialmente académica ni perfecta, podemos decir que el sesgo es la desviación consistente de una medida o algoritmo respecto al valor que debería dar.

Esto quiere decir, por ejemplo, y antes de llegar a un algoritmo, que un elemento de medida, digamos una báscula casera, ofrece un valor erróneo: nos dice, por ejemplo, que pesamos más de lo que realmente pesamos. Al utilizar la palabra consistente, queremos decir que es un error sistemático, no aleatorio, y que siempre opera en la misma dirección (en este caso, pongamos como ejemplo, dice que pesamos 500 gr más de lo que es el peso real). Ese es uno de los motivos por lo que los aparatos de medida se 'calibran'.

Cuando hablamos de un algoritmo con sesgo solemos referirnos a una desviación consistente en sus resultados. Recordar que un algoritmo con frecuencia actúa como una suerte de función matemática que, ante unos datos de entrada, produce un dato de salida. Si el resultado de esa función se desvía de manera consistente del valor que consideramos correcto(no aleatoria y siempre en el mismo sentido) , entendemos que el algoritmo está sesgado.


El sesgo como problema operativo y de negocio


El sesgo, pues, se puede producir en todo tipo de medidas y cálculos (no es algo exclusivo ni mucho menos de la inteligencia artificial) y creo que, sin excepción, se puede considerar un problema operativo o de negocio.

No soy capaz de imaginar ninguna situación en que una persona, empresa u organización pueda desear que sus medidas o cálculos estén sesgados. Incluso aunque, supuestamente, se pretendiese hacer un uso discriminatorio de una medada o cálculo, parece más sensato saber la verdad tal cual es (sin sesgo) y luego adoptar el uso que se considere oportuno.

Así que, desde un punto de vista técnico, operativo o de negocio, el sesgo es un problema, y es indeseable.


El sesgo como problema ético


¿Cuándo un sesgo da el salto para pasar de ser un mero problema operativo a convertirse en un problema ético?

Pues cuando ese sesgo genera discriminación, un trato diferenciado e injusto de personas individuales o, más comúnmente, colectivos, digamos por género, edad, etnia o lo que sea.

Un aviso importante a este respecto: considerar un algoritmo como sesgado y discriminatorio desde un punto de vista ético tiene que ver con nuestros valores y concepción de cuál debe ser el trato a personas y colectivos. Es decir, consideramos que un algoritmo está sesgado desde un punto de vista ético si, de forma consistente, sus resultados perjudican a algún colectivo de una forma que nos parece incorrecta.

Hago esta precisión porque considero que, en más de uno o de dos casos, algunos algoritmos que consideramos sesgados, no lo están realmente desde un punto de vista matemático, bajo cuyo punto de vista podrían ser perfectos, sino desde un punto de vista ético. Espero que esta afirmación se entienda porque explicarla más, si no es así, daría como mínimo para otro post.


El origen del sesgo algorítmico


¿Por qué se produce el sesgo algorítmico en machine learning?

Existen muchas motivaciones y me gusta mucho en ese sentido el resumen que ofrecen Mónica Villas y Javier Camacho en su libro 'Manual de ética aplicada en inteligencia artificial'. En él, nos hablan de hasta siete orígenes del sesgo:

  • Sesgo histórico: se parte de unos datos que ya tienen sesgo

  • Sesgo de representación o muestreo: las muestras no incluyen el número adecuado de elementos de las distintos segmentos

  • Sesgo de medida: errónea selección de los atributos a medir para un determinado problema

  • Sesgo de aprendizaje: las opciones de modelado (ej. métrica) amplifican alguna opción

  • Sesgo de evaluación: los datos de referencia (los que se usan, no para el entrenamiento sino la calidad) no representan a la población

  • Sesgo de agregación: cuando se usan datos de diferentes grupos y se asume que el mapeo de datos con etiquetas es similar en todos los grupos

  • Sesgo de implementación: cuando hay una desconexión entre el problema que el modelo resuelve y cómo se usa


Para mayor detalle aconsejo la lectura del libro citado pero llamo la atención sobre el hecho de que el origen se encuentra, en general, en datos de entrada (sesgo histórico) o en defectos de tipo fundamentalmente metodológico y no ético, aunque en el caso del sesgo de representación puede responder a un cierto prejuicio oculto y/o a falta de diversidad en los equipos de trabajo.


Soluciones al sesgo algorítmico


A la hora de solucionar las problemáticas sobre el sesgo, y aunque en materia de ética de la inteligencia artificial se suele pensar en seguida en aspectos regulatorios o de gobierno, que son sin duda relevantes, llamo la atención sobre la importancia, viabilidad y efectividad de enfocarse en los aspectos operativos (eliminación de defectos metodológicos) e incluso, como los mismos autores nos cuentan, en la existencia de abundantes herramientas técnicas para la detección y en algunos casos eliminación del sesgo.


El problema profundo


Sin embargo, al hablar de sesgos, y como decía antes, estamos hablando de valores, y eso es algo propio de los humanos y en lo que, por desgracia, no hemos alcanzado nunca en la historia un consenso suficientemente amplio.

No sólo eso, los sesgos, no los algorítmicos, sino los hechos reales (hechos reales que generan los datos de que se alimentan los algoritmos, por cierto) aparte de a valores, se corresponden con herencias culturales y estados de opinión.

Y esos sesgos son mucho más profundos y difíciles de cambiar. A ese respecto, al final de su libro  'Power and prediction: the disruptive economics of Artificial Intelligence',  Ajay Agrawal, Joshua Gans y Avi Goldfarb, y citando al profesor de la Universidad de Chicago, Sendhil Mullainathan, dicen:


Changing algorithms is easier than changing people: software on computers can be updated; the 'wetware' in our brains has so far proven much less pliable.


Y estoy de acuerdo. Como acabo de comentar, existen soluciones técnicas y procedimentales (aparte de las regulatorias) para eliminar los sesgos y la eventual discriminación que pueden traer consigo. Y, dentro de lo que cabe, podemos considerar que esas medidas son fáciles de aplicar. 

Pero otra cosa es cambiar la mente humana, su cultura, sus valores y, eventualmente sus prejuicios. Nos insisten los autores anteriores:


discrimination is easier to detect and fix in AI systems than in humans.


Así que, tenemos labor y no sólo técnica


Conclusiones


El sesgo es algo muy anterior a la inteligencia artificial y nos habla de una desviación sistemática en medidas o cálculos, una desviación que desde un punto de vista técnico, operativo o de negocio, sólo cabe considerarla como un defecto y, por tanto, negativo. 

Si este defecto meramente técnico, se traslada a una discriminación de colectivos o personas es cuando consideramos que ha generado un problema ético. Pero el juzgar esa discriminación ya tiene que ver con valores y cultura.

Y si para el problema técnico, existen ya metodologías y herramientas razonablemente efectivas, para el problema de fondo, el problema cultural y de valores, quizá no tengamos tantas soluciones o, más bien, tan efectivas.


miércoles, 21 de junio de 2023

El timing estratégico de la innovación en machine learning

Vivimos un tiempo acelerado de innovación en tecnología digital y en especial en inteligencia artificial y, mas en especial todavía, en el campo de la Inteligencia Artificial generativa.

Nos preguntamos: adoptando una visión estratégica, ¿Cómo de importante es, para un fabricante, darse prisa y llegar el primero al mercado? 


El valor estratégico del timing en innovación


Tendemos a pensar que, en materia de innovación, especialmente innovación tecnológica, el llegar los primeros, ser lo que se denomina un 'first mover', es fundamental. 

Pero como muy bien se explica en el libro 'Strategic Management of Technological Innovation' de Melissa Schilling que ya comentamos hace bastante tiempo, ser el primero tiene ventajas, pero también desventajas.

Entre las ventajas, Schilling, apunta las siguientes:

  • Lealtad a la marca y liderazgo tecnológico: ya que se puede conseguir un prestigio duradero y una fidelidad a la marca si se es el primero en entrar y, además, esa posición de líder permite moldear las expectativas acerca de as prestaciones, precios etc de la tecnología

  • Prioridad sobre recursos escasos: ser el primero permite capturar recursos escasos como localizaciones, permisos gubernamentales, canales de distribución, etc

  • Explotar los costes de cambio del comprador: cambiar de tecnología implica costes (formación, complementos, etc) que los compradores pueden preferir no pagar y quedarse con la primera tecnología que han probado y adquirido.

  • Conseguir retornos crecientes: por ejemplo externalidades de red e incluso posicionarse como el llamado diseño dominante.

y, entre las desventajas, éstas otras:

  • Mayores gastos de Investigación y Desarrollo: y no solo los de la tecnología propiamente dicha sino, presumiblemente, la exploración de otros caminos que resultaron fallidos.

  • Canales de distribución y aprovisionamiento no desarrollados

  • Tecnologías habilitadoras o complementos inmaduros: puesto que con frecuencia, se depende de terceros que desarrollen tecnologías habilitadoras y éstos pueden no hacerlo o estar retrasados.

  • Incertidumbre acerca de los requisitos o intereses de los clientes: incertidumbre sobre lo que los consumidores realmente quieren o están dispuestos a comprar, que es el 'driver' que ha conducido a enfoques de la innovación como Lean Startup o Design Thinking.


Machine learning y momento de entrada


¿Y en el caso de la inteligencia artificial en general y el machine learning en particular?

En principio, a grandes rasgos, no veo motivos para que no podamos aplicar los mismos criterios aportados por Schilling aunque, evidentemente, adaptados puesto que, por ejemplo, en el caso del machine learning las materias primas no parecen tener especial relevancia y, probablemente, los canales de distribución tampoco demasiada.

Sin embargo, lo que quería comentar, la verdadera motivación para escribir este post es exponer el razonamiento que, al respecto, hacen Ajay AgrawalJoshua Gans y Avi Goldfarb, en su libro 'Power and prediction: the disruptive economics of Artificial Intelligence', 

En él, afirman sin ambages:


AI confers advantage to first movers


Pero su razonamiento difiere bastante del hecho por Schilling y se centra en el aprendizaje. Su argumentación es:


AI learns, and the sooner it is deployed, the sooner it can begin to learn. The more it learns, the better it gets in terms of prediction and accuracy. The better it gets, the more effective the new system is.


Es decir, ser los primeros en un algoritmo, permite comenzar a aprender antes, convertirse en mejor algoritmo y, se entiende, aunque no se explicita, eso da una ventaja competitiva que se supone se traduce en resultados comerciales.

Tengo que decir que el argumento me ha resultado interesante y muy llamativo...pero no me convence del todo.

Primero una advertencia conceptual: los autores, como muchos otros autores de todo tipo y como muchas personas, parecen tener una visión de la inteligencia artificial algo reduccionista que la confina al ámbito de los algoritmos que aprenden en base a datos (básicamente el 'machine learning que por eso es el término que utilizo en el título de este post en lugar de Inteligencia Artificial que apuntan los autores). En parte debido a eso, los autores caen, en mi opinión, en un segundo reduccionismo al contemplar los algoritmos de machine learning como meras herramientas de predicción. 

Apuntado eso, vamos a olvidarnos de esa 'pega' y admitir pulpo como animal de compañía.

Aún así, creo que, aunque interesante, el argumento es débil. En primer lugar, hoy en día muchos algoritmos se pueden entrenar a gran escala sin necesidad de hacerlos públicos o lanzarlos comercialmente (por ejemplo, el caso de GPT-3 entrenado con base en la wikipedia, webs y libros públicos). No es necesario, en muchos casos (no digo que en todos), lanzar un algoritmo al mercado para acceder a datos de sobra para aprender.

Y, aunque sí cabe admitir que el hecho de que el algoritmo sea mejor, le da posicionamiento competitivo, sabemos que no siempre es así o que esa 'calidad' no necesariamente es determinante del éxito.

Es decir, en mi opinión, y aunque en ocasiones ese llegar el primero al mercado sí puede operar en el sentido de dar mejor acceso al aprendizaje y la obtención de un mejor algoritmo que tenga más éxito comercial, no me parece que sea un argumento generalizable ni una receta clara de éxito en todos los casos, como parecen entender los autores.

A cambio, se olvidan de algún factor de los que apunta Schilling como la lealtad a la marca, el liderazgo tecnológico, los costes de cambio o, simplemente, la imagen. 


Una digresión sobre ChatGPT


Aunque no me atrevo a hacer un diagnóstico definitivo sobre el caso de OpenAI y su ChatGPT, creo que su mayor éxito, supuesto que les concedamos el reconocimiento como 'first mover' (lo cual también es discutible puesto que la arquitectura Transformer y los grandes modelos de lenguaje ya existían antes del lanzamiento de ChatGPT) y supuesto, no tengo datos de resultados comerciales para valarlo, que realmente el éxito mediático se haya traducido en éxito de negocio, el valor de ser el primero vendría más bien de elementos como el marketing y la demostración de liderazgo, que de ganar acceso a datos para el entrenamiento. 

Y, además, se lo podía permitir por ser OpenAI. Ya vimos las consecuencias de que Google, intentara emular rápidamente el movimiento de integrar los LLM con el buscador (cosa que ha hecho Microsoft con la integración en Bing). Ahí Google estaría actuando, realmente, no como 'first mover' sino como 'fast follower' y aún así su primer movimiento fue fallido. Y eso es así, por las circunstancias de Google, líder en buscadores y donde, quizá, los experimentos había que hacerlos con 'gaseosa'.


Conclusiones


Resulta interesante el razonamiento que apunta al interés de ser 'first mover' en machine learning como una forma de ganar acceso a datos y con ello mejorar el entrenamiento y la calidad del algoritmo, pero no parece que sea, al menos en mi opinión, un argumento ni definitivo ni generalizable y probablemente debamos tener en cuenta otros factores que nos aporta la visión de la innovación estratégica.


lunes, 19 de junio de 2023

Emoción artificial

Un campo apasionante, a la vez que intimidante, en lo relativo a la inteligencia artificial y la robótica cognitiva, es todo lo que tiene que ver con la gestión de las emociones.

La gestión de las emociones por entes artificiales


Me refiero a la detección de emociones en humanos, a la reacción inteligente de un agente artificial inteligente (digamos un algoritmo, un agente conversacional o un robot social) ante esas emociones humanas, y a la simulación de sus propias emociones por parte de ese agente artificial inteligente.

Ya he hablado en este mismo blog sobre el tema y me he referido, por ejemplo, al campo del 'Affective computing' un término, creo, un poco en desuso hoy día, aunque, a despecho de lo que pueda suceder con el término, lo que hay detrás, la disciplina en si, está vivo, muy vivo, y creo que lo estará aún más en el futuro.

Recientemente me estoy tropezando con el término 'Emotion AI', que quiero investigar y que calculo que se refiere poco mas o menos a lo mismo.

Más allá del contenido, que es lo más interesante, en este post voy solamente a especular un poco sobre la propia definición del campo. Y lo hago inspirado por la lectura del libro 'Alone Together: Why We Expect More from Technology and Less from Each Other' de Sherry Turkle, un libro casi clásico entre quienes se interesan por la robótica social, por la relación robots-personas y, en general, por la interacción social de los humanos con la tecnología.

Se trata de un libro no del todo reciente (data de 2017, lo cual en otros campos seria bastante actual, pero en el que nos ocupa, puede notar el paso del tiempo) pero aún relevante.


La definición primigenia de inteligencia artificial


Turkle hace un paralelismo, que, en el fondo, es lo que me ha llamado la atención, con la explicación, no sé si definición, que los asistentes a la famosa conferencia de Darmouth dieron para explicar la recién creada y bautizada disciplina de la inteligencia artificial.

Decían que lo que pretendían era conseguir que las máquinas se comportasen de tal manera que la consideráramos inteligente si un humano se comportase de esa misma manera.

Una visión externa de la inteligencia (artificial), orientada a los resultados y manifestaciones y no tanto a una esencia, probablemente más difícil de definir.

Una orientación que, de alguna manera, enlaza con el famoso test de Turing que también juzga la inteligencia por su manifestación externa en un enfoque que podríamos calificar casi como fenomenológico.


Una definición de emoción artificial


Con esa inspiración Sherry Turkle propone, de una forma que considero ingeniosa, una definición paralela de lo que sería la emoción artificial. Así, nos dice


We are coming to a parallel definition of artificial emotion as the art of "getting machines to express things that would be considered feelings if expressed by people".


En esta especie de definición, nos olvidamos (aunque en el fondo queda implícito) de la detección de las emociones humanas por parte del agente artificial inteligente y nos concentramos más en su expresión de emociones y, como hacían los científicos de Darmouth, consideremos que una máquina es emocional si es capaz de expresar cosas que consideraríamos sentimientos si las expresase un humano.


Alguna implicación filosófica


Es muy importante, de cara a consideraciones éticas e incluso legales, el notar que adoptamos una visión externa. Es decir, no afirmamos que el agente artificial inteligente, 'sienta' realmente nada, que tenga realmente ninguna emoción: sólo que se comporta de una forma que consideraríamos emocional (sentimiento) si un humano hiciese lo  mismo

En una visión filosófica profunda eso nos podría llevar a debates sobre si realmente eso es una emoción o no, o incluso si podemos realmente llegar a saber si realmente ese agente siente algo o no (en el fondo, la misma cuestión aplica a los seres humanos).

Pero más allá de esa quizá irresoluble cuestión, el hecho de que consideremos a un agente como 'sintiente' puede ser suficiente para adjudicarle 'paciencia moral' y por tanto, deducir que puede tener unos derechos.

Por otro lado, desde un punto de vista ético, también nos podemos cuestionar si se produce engaño cuando un agente artificial expresa emociones o si hay riesgos fundamentalmente de tipo afectivo o moral de cara a humanos que interactúen, quizá inadvertidamente, con esos agentes 'emocionales'. 


Conclusión


El campo de la gestión de emociones por parte de agentes artificiales es técnicamente viable, al menos hasta un cierto nivel, y lo que cabe preguntarse ahora es hasta donde lo queremos llevar y qué implicaciones filosóficas, éticas y legales trae consigo.


jueves, 1 de junio de 2023

La transformadora convergencia de dos tecnologías radicales

En el movidísimo y extremadamente interesante panorama tecnológico actual, cobra mucha relevancia, casi supremacía mediática, todo lo que tiene que ver con las tecnologías digitales y, muy especialmente, con la inteligencia artificial.

Personalmente, además, ese es el ámbito tecnológico que más me interesa junto con la robótica tanto hardware como software.

Sin embargo, no conviene olvidar que existen otras tecnologías, también muy interesantes y también muy transformadoras. Podríamos pensar, por ejemplo, en la nanotecnología, la edición genética o la computación cuántica, esta última, eso sí, prima-hermana de lo digital.  

Y tampoco conviene olvidar que las tecnologías interactúan y se refuerzan, en parte porque realmente con frecuencia las fronteras entre tecnologías, dónde empieza una y acaba otra, son difusas y en parte porque, incluso tecnologías que seamos capaces de separar nítidamente, se pueden combinar para proporcionar soluciones prácticas en el mundo real. 


Las dos tecnologías transformadoras


Pero en este post hablo de dos tecnologías transformadoras, recogiendo el pensamiento de Yuval Noah Harari recogido en su libro '21 Lessons For The 21St Century'. En él, el historiador israelí identifica dos grandes tecnologías, dos grandes fuerzas transformadoras que confluyen y se refuerzan: la biotecnologia y la 'infotecnología'. En concreto, afirma:


we are now at the confluence of two inmense revolutions. On the one hand biologists are deciphering the misteries of the human body, and in particular, of the brain and of human feelings. At the same time computer scientists are giving us unprecedented data-processing power. When the biotech revolution merges with the infotech revolution, it will produce Big Data algorithms that can monitor and understand my feelings much better than I can, and then authority will probably shift from humans to computers.


Aunque Harari lo expresa con palabras más genéricas, como 'biotech' e 'infotech' (digamos tecnología biológica y tecnología de la información'), lo cierto es que en su explicación se nota la predominancia de dos ramas muy concretas de ambas: la neurociencia y la inteligencia artificial.

Y, en efecto, la combinación de ambas es poderosa, atractiva...e  intimidante.

Veamos algún caso.


Recordando los agentes inteligentes y el patrón sensor-actuador


En varios puntos de este blog he mencionado en mayor o menor medida lo que en mi libro 'Robots en la sombra' denomino el patrón sensor-actuador que se ilustra en la figura o lo que es muy parecido, y quizá más presente en la literatura técnica, el concepto de agente inteligente.


Patrón sensor-actuador. Fuente 'Robots en la sombra'

En el fondo se trata de un patrón, muy común en tecnologías digitales aunque en la figura lo ilustro como un robot, por el que un ente adquiere información de su entorno mediante sensores, procesa esa información con mayor o menor inteligencia (en el caso de los agentes inteligentes y de lo que nos interesa para este post, con bastante presencia de inteligencia artificial) y genera unas actuaciones hacia su entorno, coherentes con lo percibido y con los objetivos del agente.

Y, aunque no creo que Harari se limite en su pensamiento a este modelo (a lo mejor ni siquiera lo conoce) sí me parece que bajo este modelo encuentran realización y evidencia esa visión convergente y transformadora que el autor nos transmite.

Y lo ilustraré mediante dos casos también tratados en este blog.


El caso de la computación afectiva


Un primer caso sería el de la computación afectiva, una disciplina que busca detectar emociones en los humanos y comunicarlas hacia los mismos. En general, en computación afectiva se utilizan técnicas no invasivas, técnicas que se basan en el tratamiento de la voz y el lenguaje natural con todas sus inflexiones, en las expresiones faciales detectadas mediante cámaras, en la detección de variaciones en la saturación de oxígeno (ligado al pulso cardiaco), etc 

Una vez obtenida la información mediante sensores, es la inteligencia artificial y el machine learning los que nos ayudan, los que ayudan a la máquina en realidad, a deducir estados anímicos o emocionales en el humano, reconociendo patrones de expresión o de reacciones fisiológicas ante las emociones.

La parte actuadora se suele realizar en este caso, de nuevo, de forma poco invasiva y usando por parte de la máquina (normalmente un robot) los mecanismos de interacción social propios de los humanos como el propio lenguaje y la voz, la mirada, los gestos, la distancia, etc.


El caso del Brain-Computer Interface


Quizá más radical, y más cercano a la biotecnología y la neurociencia, sea el caso del Brain-Computer Interface que de alguna forma, todavía en general primitiva, detecta pensamientos, intenciones o actividad cognitiva de algún tipo a partir de emisiones electromagnéticas, variaciones en flujo sanguíneo, etc en el cerebro o sistema nervioso mediante sensores capaces de percibir, a veces en contacto directo con el cerebro o los nervios, esas señales.

Y, de nuevo, la identificación y entendimiento de los patrones de señales se suele realizar mediante algoritmos de inteligencia artificial.

En la fase actuadora, cuando se produce, que no siempre es así, volvemos a encontrarnos con dispositivos especializados capaces de enviar señales al cerebro o a los nervios como los implantes cocleares o retinales o la Deep Brain Stimulation (DBS).


¿Miedo?


En ambos casos, aunque por medios diferentes, una máquina, a través de sensores percibe, señales del ser humano y con base en ellas es capaz de detectar las emociones y en cierto sentido el pensamiento de ese ser humano. Y en la dirección contraria, la máquina es capaz de devolver alguna expresión de emoción (como en el caso de los robots sociales) o algún otro tipo de actuación.

Produce, no cabe duda, un cierto respeto que puede a veces rayar en la prevención e incluso el miedo, estas posibilidades que se están abriendo mediante la combinación de las capacidades biotecnológicas aumentadas con las capacidades propias de la inteligencia artificial.

Dado que creo que el progreso técnico en este campo me parece imparable, y en la mayor parte de los casos deseable, lo que sí reafirma es la necesidad de un componente ético en el desarrollo y aplicación de las tecnologías y, eventualmente, una regulación que obligue, al menos hasta cierto punto, a esos comportamientos éticos. 


Conclusiones


Parece, en efecto, que tal y como afirma Harari, existe una convergencia de dos poderosas tecnologías, la biotecnología y la tecnología de la información, muy centrada, respectivamente, en la neurociencia y la inteligencia artificial, que abre unas inmensas posibilidades, una gran transformación, que debe ser impulsada siempre con un criterio ético.