miércoles, 22 de septiembre de 2021

Anuncio de la presentación oficial de mi libro "Robots en la sombra"

Se ha hecho de esperar... pero ya está aquí.

El próximo Miércoles 29 de Septiembre, a las 19:00, en el Salón de Actos de Escuela de Organización Industrial, tendrá lugar la presentación de mi libro "Robots en la sombra".

En el evento, aparte de un público en que espero a familiares, amigos, compañeros y excompañeros, me acompañará un plantel de auténtico lujo:

En primer lugar Nieves Olivera, Directora General de Escuela de Organización Industrial que me aporta solidez y apoyo institucional por parte de la institución donde desarrollo gran parte de mi actividad docente.

También estará Valvanera Castro, experta en innovación, también profesora en EOI, compañera del Foro de Humanismo Digital EOI y autora del libro "La aventura de innovar", publicado en mi misma editorial, Anaya Multimedia, y que seguro presenta muy pronto.

No faltarán Richard Benjamins e Idoia Salazar que tantas aventuras recorren juntos, incluyendo ésta.

Idoia Salazar, es Presidenta de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), asociación a la que pertenezco, docente en la Universidad San Pablo CEU, autora de varios libros entre los que destaco "El mito del algoritmo" y co-prologuista de mi libro.

Richard Benjamins es Chief AI & Data Strategist en Telefónica, mi antigua compañía, Vicepresidente y co-fundador de OdiseIA, autor también de varios libros incluyendo "El mito del algoritmo" y también prologuista, junto con Idoia, de mi libro.

Si tenéis interés, este es el enlace para apuntarse y conocer detalles.

Me encantará verte por allí.

 

lunes, 20 de septiembre de 2021

Caminos para la conversión en cíborg

Un fenómeno extraño, y que desafía nuestras concepciones éticas sobre la propia humanidad, es el de los cíborgs o la 'ciborgización' de la humanidad.

Un cíborg es, de alguna forma, una fusión entre lo humano y elementos tecnológicos. Algo que parece de ciencia ficción pero que ya se encuentra entre nosotros.

Se encuentra entre nosotros en casos en cierto modo aislados y espectaculares como el del conocidísimo Neil Harbisson con su antena implantada en el cráneo y que le permite, entre otras cosas, una percepción cromática aumentada. Pero, quizá, podríamos considerar que somos un poquito cíborgs todos aquellos que tenemos algún tipo de prótesis (prótesis de caderas, lentes intraoculares, marcapasos, etc).

En cierto sentido, la visión más desafiante de lo cíborg no es tanto, que también, aquella en que se potencian la capacidades puramente físicas o mecánicas, sino cuando esa fusión con la tecnología afecta también al cerebro y capacidades cognitivas.

Esa ciborgización, esa fusión con la tecnología, que hoy se centra sobre todo en aspectos terapéuticos y generalmente más cerca de lo mecánico que de lo cognitivo, podría incrementarse en el futuro, lo cual supone, en algunos casos, un fuerte reto ético y una reflexión profunda sobre la dirección evolutiva que queremos seguir,

En el libro 'Automation and Utopia: Human Flourishing in a World without Work' del filósofo John Danaher se analiza esa ciborgización como una visión de futuro, una visión de futuro incluso utópica (aunque el autor al final rechaza esa visión como deseable). En el transcurso de su análisis, el autor cita a Kevin Warwick, ingeniero y profesor de cibernética, quien identifica tres vías posibles hacia la conversión en cíborg, o hacia la ciborgización de la sociedad. Son estos:


  • Cerebro cultivado en robot: Aunque lo nombramos el primero, quizá sea la opción más extraña y puede que inquietante. Se trata de cultivar células cerebrales (en la actualidad procedentes de roedores pero, en un futuro, quién sabe si también de humanos), unas células que serían capaces de enviar y recibir señales a/desde el exterior mediante su conexión mediante un array de electrodos de forma parecida a como se hace en ocasiones en BCI. La idea final sería utilizar esta especie de cerebros cultivados para mover y gestionar un cuerpo robótico. Lo cierto es que, según se nos indica, a nivel de laboratorio ya hay algunos resultados exitosos si bien con 'cerebros cultivados' muy pequeños y con capacidades muy limitadas de comportamiento.

  • Interfaces cerebro-ordenador (Brain Compute Interfaces, BCI): Un conjunto de técnicas quizá algo más conocidas y que conectan, de diversas formas, el cerebro o sistema nervioso humano con ordenadores u equipos robóticos externos. En algunos casos, implican la toma de señales mediante mecanismos no invasivos como la Electro Encefalografía pero en los casos más avanzados suponen de nuevo implantes incluso intracraneales y en contacto directo con el cerebro o sistema nervioso. Con estas técnicas se han conseguido ya, por ejemplo, el movimiento de brazos robóticos o el control del temblor en pacientes de Alzheimer.

  • Otros implantes y prótesis no neurológicos: Una categoría un poco 'cajón de sastre' donde se agrupan otro tipo de técnicas como la implantación de chips RFID por debajo de la piel para, por ejemplo, abrir una puerta mediante un sólo gesto o también la implantación de dispositivos magnéticos.

Danaher añade, a esta propuesta de Warwick, una cuarta categoría:
 
  • Técnicas de aumento biomédico: En este caso estamos hablando de farmacología o psicofarmacología para mejorar el carácter, la cognición o la habilidad. También se incluiría aquí, y creo que con un mayor potencial disruptivo, la ingeniería genética


Inquieta un poco y suena a ciencia ficción pero lo cierto es que, aunque parezca futurista y fuera de nuestros esquemas mentales actuales, todas estas técnicas están en investigación e, incluso, en muchos casos, en cierto grado de uso en casos reales, normalmente en entornos terapéuticos.

Y como tales tecnologías que existen y que, sin duda, avanzarán mucho más, deberemos irnos acostumbrando y, sobre todo, tomar decisiones con base ética y quizá trasposición legal sobre la forma en que queremos emplearlas.


viernes, 17 de septiembre de 2021

Una filosofía para humanos y robots con Sven Nyholm

'Humans and Robots: ethics, agency, and anthropomorphism' es un libro que se centra en los robots y sobre todo las relaciones de éstos con las personas y las derivadas éticas que ello tiene. Se trata, a pesar de hablar de robots, de un libro plenamente filosófico, un libro fundamentalmente sobre ética y en donde, como el subtítulo anuncia, se centra bastante en el tema de la agencia (la capacidad para obrar de una manera autónoma de la cual se pueden derivar responsabilidades) y el antropomorfismo, que lleva a que atribuyamos a los robots características propias de los humanos: intenciones, sentimientos, alma.

El libro, no muy extenso, estructura su contenido en ocho capítulos:
  • 'Human minds meet artificial intelligence': Tras analizar un poco la controversia creada por el robot Sophia, presenta el objetivo del libro, defendiendo la necesidad de un subcampo de la ética dedicado específicamente a la interacción de robots y personas (HRI, 'Human-Robot Interaction') y destaca dos grandes tipos de preguntas: por un lado las que se refieren a la agencia, la capacidad de realizar acciones, tanto de humanos como de robots y, por otro, consideraciones éticas específicas de la relación entre humanos y robots, teniendo muy presente la tendencia a la antropomorfización de aquello con que se relacionan, incluyendo por supuesto a los robots, que exhiben los seres humanos. Luego pasa a reflexionar sobre lo que es un robot y lo que es realmente un ser humano. El autor defiende ya desde este capítulo que los humanos no están bien preparados para su relación con la Inteligencia Artificial y con los robots y que, por tanto, es necesario, o bien que se adapten los robots o bien que se adapte el ser humano.

  • 'Artificial Agency, Human Responsibility': Parte de ejemplos de la ciencia ficción y concluye que las personas tendemos a atribuir agencia, no sólo a esos robots imaginarios sino también a los robots reales de que disponemos. Tras esa introducción, analiza más detalladamente qué es exactamente esa 'agencia' y las consecuencias en cuanto a responsabiliad de robots o humanos sobre los actos de los primeros
  • .
  • 'Human-Robot Collaborations and Responsibility': Estudia las situaciones en que colaboran un humano y un robot e identifica vacíos en cuanto a responsabilidad y atribución. Utilizando como marco de análisis los accidentes de vehículos autónomos, analiza diferentes tipos de agencia y las implicaciones que tienen en cuanto a responsabilidad

  • 'Human-Robot Coordination': Siguiendo con el mismo escenario básico, el de los vehículos autónomos, ahora analiza situaciones de coordinación entre humanos y robots (en este caso vehículos autónomos y vehículos tradicionales conducidos por humanos, lo que el autor denomina el tráfico mixto). El autor identifica tres estrategias posibles para esa coordinación: hacer la conducción de los vehículos autónomos mas humana, involucrar más al conductor humano o hacer que en ciertos aspectos la conducción humana sea más robótica.

  • 'Robotic Relationships': Analiza las relaciones con los robots que implican tomarlos como verdaderos compañeros, amigos o pareja. Analiza la problemática y posibilidad de una eventual amistad con un robot aportando argumentos tanto a favor (procedentes fundamentalmente de otro filósofo, John Danaher) y en contra, más alineados con el pensamiento del propio autor.

  • 'Robotic Mind-Reading': Analiza la temática de la llamada lectura de la mente, que no es una forma de telepatía sino la interpretación que hacemos de lo que otra persona, en este caso un robot, está pensando. Explica diferentes formas que puede adoptar esa lectura de la mente (atribución de estados mentales, atribución de características de personalidad y atribución de un 'yo' y un 'yo verdadero'). También explica cómo en esa lectura de la mente, terminamos atribuyendo al interlocutor, un robot en este caso, alguna forma de alma. Y continua explicando diversos estudios y actitudes frente a unas eventuales mentes robóticas para finalizar con una discusión sobre si los robots tienen o no mentes.

  • 'Robot Virtues and Duties': Siguiendo en una senda ascendente, ahora se ocupa de la ética de robots. Habla de la ética para máquinas incluyendo argumentos críticos. Habla de las virtudes y cómo los robots se relacionan con ellas. Y también se habla de los deberes de los robots y realiza, al final, una distinción relevante en el caso de los robots como es la de ser realmente bueno o simplemente parecer bueno.

  • 'Robot Rights': Y finalmente, aborda el problema de si los robots deben o no deben ser objeto de derechos. Analiza, por ejemplo, la crueldad con los robots e incluso su 'esclavitud'. El autor concluye que, en realidad y mientras los robots no tengan propiedades mentales similares a las de humanos o al menos animales, nuestro deber moral hacia los robots no es tanto por ellos como por nosotros, los humanos, por respeto a nuestra propia humanidad y moralidad.
Durante el desarrollo de las temáticas, hay frecuentes citas a otros filósofos o autores, a su pensamiento y sus libros. Además, al final de cada capítulo se incluye una larga bibliografía.

'Humans and Robots' es un libro que me ha fascinado. Parte con la ventaja de que la robótica, y la robótica más avanzada con altas dosis de inteligencia artificial, con alta autonomía de movimiento y acción, y capacidades de computación afectiva, es un tema que me apasiona. Pero además, me ha gustado mucho el tratamiento dado por el autor. Como digo, se trata de un libro plenamente filosófico, nada técnico en absoluto pero, sin embargo, parte de un muy buen entendimiento de la realidad técnica, de lo que la tecnología actual, muy en especial la inteligencia artificial y la robótica. pueden dar, sin fantasías ni malos entendidos. A eso se une una argumentación clara y un lenguaje fácil de seguir en general, muy alejado de lo que se puede pensar que es un tratado de filosofía.

Recomendadísimo.

Sven Nyholm

(Fuente: Traducción y ligera elaboración propia de su ficha en la Universidad de Liverpool)

Sven Nyholm
Sven Nyholm es profesor ayudante de Filosofía en la Utrecht University, miembro del Ethics Advisory Board del Human Brain Project y editor asociado de la revista 'Science and Engineering Ethics'. Gran parte de su trabajo reciente ha versado sobre el impacto de las tecnologías emergentes en nuestras oportunidades para vivir unas vidas con significado, mantener relaciones significativas y realizar un trabajo con significado. Está especialmente interesado en cómo la vida en el mundo contemporáneo, con tecnologías como los robots y la inteligencia artificial, afectan a las ideas tradicionales acerca de la ética y nuestro propio entendimiento como humanos.

Las publicaciones de Nyholm incluyen 'Revisiting Kant’s Universal Law and Humanity Formulas' (2015) y 'Humans and Robots: Ethics, Agency, and Anthropomorphism' (2020). Actualmente se encuentra escribiendo su tercer libro 'This is Technology Ethics: An Introduction' previsto para 2022.

Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en twitter donde se identifica como @SvenNyholm.


miércoles, 15 de septiembre de 2021

El test de Turing inverso

El empeño de la Inteligencia Artificial es resolver problemas complejos, problemas sin unas reglas de resolución claramente definidas y problemas en cuya resolución, de alguna manera, necesitamos incorporar capacidades cognitivas propias de los humanos.


El test de Turing


En ese camino, y desde hace ya muchos años, se planteó el cómo saber si una máquina o un agente era realmente inteligente. Y, como 'vara de medir', como elemento de comparación, se tomaba, claro, al propio ser humano, dando lugar al muy conocido, o al menos muy mencionado, test de Turing.

El test de Turing lo que intenta es comprobar si un agente artificial, se comporta realmente como un humano. Se supone que cualquier humano pasará el test de Turing y que sólo las máquinas realmente inteligentes lo harán, fracasando en el intento las máquinas no suficientemente inteligentes o, quizá mejor decir, con una inteligencia 'no suficientemente humana'.

Por simplificar, y por comparar con lo que viene, podríamos decir que en el test de Turing el que juzga es un humano y lo que ponemos a prueba es una máquina. Y lo que tiene que demostrar la máquina es inteligencia, su, perdón por decirlo así, 'humanidad'. 


Los captchas


En esta comparativa humano - máquina nos encontramos, al menos otras dos casuísticas. Una menos elaborada pero que experimentamos con frecuencia son los famosos captchas, esos mecanismos de seguridad incorporados a algunos sistemas en que se pretende que una persona demuestre que 'no es un robot'. Si se es 'suficientemente humano' se pasa la prueba. Si no, no. 

Comparado con el testo de Turing hay que hacer notar que, en este caso, el juez es una máquina (no un humano) y quien tiene que demostrar su 'humanidad' son las personas (se asume, quizá de forma un poco optimista, que un robot no puede superar un captcha).

Pero lo que me ha resultado llamativo, lo que me ha sugerido la escritura de este post es el llamado test de Turing inverso.


El test de Turing inverso


Descubro ese concepto leyendo el libro 'Automation and Utopia: Human Flourishing in a World without Work' del filósofo John Danaher aunque, en realidad, lo que hace Danaher es, en el contexto de análisis de lo que él denomina la utopía cyborg mencionar esta idea propuesta por el jurista Brett Frischmann y el filósofo Evan Selinger en su libro 'Re-engineering humanity'.

Estos dos autores, Frischmann y Selinger se muestran preocupados por el impacto deshumanizador de las tecnologías o lo que ellos denominan ingeniería tecno-social es decir los cambios inducidos en el comportamiento de las personas e incluso la manipulación basada en el uso de tecnologías novedosas que se infiltran de alguna manera en instituciones sociales (incluyendo, por ejemplo, la justicia).

Según estos autores, esa influencia puede llevar a que las personas, los humanos, nos comportemos realmente como máquinas, nos roboticemos de alguna manera. El test de Turing inverso lo que pretende detectar es si una persona se ha deshumanizado tanto como parecer una máquina.

Si en el test de Turing original, es la máquina la que quiere demostrar su 'humanidad', en el test de Turing inverso es el humano el que quiere demostrar (o quizá mejor decir, quiere comprobar) su 'maquinicidad', si es suficientemente máquina.

No tengo información ahora mismo si en este test de Turing inverso quien juzga es una máquina o un humano. Lo que sí está claro es que quien es puesto a prueba es un humano pero lo que se trata de demostrar no es tanto su inteligencia 'humana' sino su inteligencia 'robótica'.


Comentarios


Aunque no dudo (sin haber leído su libro) de que la preocupación de Frischmann y Selinger es profunda y sincera, no estoy muy seguro de hasta qué punto tomarme en serio este test de Turing inverso.

Intuyo que, al igual que el test de Turing original, más que un uso como tal, sirvió para clarificar conceptos y promover el debate y la investigación, este test de Turing inverso sirve también más de llamada de atención y de elemento de debate que de aplicación real.

En cualquier caso, me parece original y llamativo y por eso he querido reflexionarlo y tratarlo en este post.


martes, 14 de septiembre de 2021

Un amplio panorama de la explicabilidad de la Inteligencia Artificial

'Explainable AI: : Interpreting, explaining and visualizing deep learning' es un largo compendio del estado del arte en explicabilidad de la Inteligencia Artificial. Un comependio realizado de manera coral por multitud de autores que se encargan de forma individual o en grupos de dos o tres, de cada uno de los 22 capítulos que componen el volumen.

Un libro escrito en estilo científico, ordenado, riguroso, austero y con frecuencia profundo por lo que se trata de una obra valiosa aunque no del todo fácil de 'digerir'.

En su haber, aparte del rigor y la actualidad del tema, el haber conseguido un discurso razonablemente ordenado y completo para estar escrito por tantas manos.

Los veintidos capítulos se estructuran en siete partes, como sigue:
  • 'PART I: TOWARDS AI TRANSPARENCY:' Se presentan los diferentes aspectos del problema de la explicación y se proporciona una revisión de alto nivel de los desarrollos recientes, puntos abiertos y áreas de investigación. Abarca los siguientes tres capítulos:

    • '1. Towards Explainable Artificial Intelligence:' Explica por qué es necesaria la explicabilidad desde diferentes perspectivas: seguridad, confiabilidad, social, legal y la posibilidad de extraer nuevo conocimiento. También se comentan las diferentes facetas de una explicación y se resumen los desarrollos actuales y los puntos abiertos.

    • '2. Transparency: Motivations and Challenges:' Se enfoca en los desafíos de la transparencia. Se pasa revista a varios tipos y objetivos de trasparencia, cada uno de las cuales requiere de un tipo diferente de explicación. Además, apunta a los posibles peligros de la transparencia y comenta la relacion entre trasparencia y otros conceptos como los de justicia y confianza.

    • '3. Interpretability in Intelligent Systems - A New Concept?:' Se repasa la historia de la explicabilidad de la inteligencia artificial y, en particular, la prevalencia de la cuestión de la explicacón en la investigación primigenia en el campo de los sistemas expertos, los intentos en este contexto de caracterizar las explicaciones en términos de 'desiderata' y la necesidad de cuantificar la incertidumbre asociada a estas explicaciones.

  • 'PART II: METHODS FOR INTERPRETING AI SYSTEMS:' Intenta recoger el estado del arte en cuanto a técnicas para la interpretación de modelos de machine learning complejos.

    • '4. Understanding Neural Networks via feature Visualizations: A Survey:' Presenta la situación en que una red neuronal es sometida a unas entradas de un dominio conocido por los humanos y se trabaja con esas entradas para maximizar la activación de una neurona de salida, de manera que el humano pueda interpretar el significado asignado a esa neurona de salida. Los modelos de que se habla son visualizables por humanos, haciendo que el concepto aprendido por la red sea interpretable.

    • '5. Interpretable Text-To-Image Synthesis with Hiercarchical Semantic Layout Generation:' Presenta un modelo de red generativa en que se puede convertir texto en otra modalidad como, por ejemplo, imágenes.

    • '6. Unsupervised Discrete Representation Learning:' Presenta un algoritmo para resumir datos de entrada en clusters o hashes que sean interpretables por humanos trabajando, como elemento fundamental, con invariancias.

    • '7. Towards Reverse-Engineering Black-Box Neural Networks:' Se estudia cómo, en un entorno de redes adversarias, si utilizamos un modelo muy transparente ésto podría ser explotado por un usuario malicioso.

  • 'PART III: EXPLAINING THE DECISIONS OF AI SYSTEMS:' En esta parte se centra en métodos de explicabilidad que ponen el foco en saber cómo las características de entrada influyen en la salida, lo que permite a un humano juzgar si la decisión se basa en factores relevantes y no en correlaciones espúreas. Se desarrolla en cuatro capítulos:

    • '8. Explanations for Attributing Deep Neural Network Predictions:' Presenta el método denominado 'meaningful perturbation' que sintetiza una perturbación local mínima en los datos pero provocando un gran impacto en el modelo de decisión con lo que se puede deducir que las variables que intervienen en la perturbacion tienen mucho peso en la decisión.

    • '9. Gradient-Based Attribution Methods:' Se exploran varias técnicas basadas en gradiente ('gradient-based') en los que la explicación se obtienen a partir de los componentes del gradiente de una función de decisión.

    • '10. Layer-Wise Relevance Propagation: An Overview:' presenta la técnica denominda 'Layer-Wise Relevance Propagation' (LRP) que obtiene explicaciones de redes neuronales profundas propagando la decisión hacia atrás en la red mediante unas reglas de propagación cuidadosamente diseñadas.

    • '11. Explaining and interpreting LSTMs:' Estudia las extensión de la técnica LRP vista en el capítulo 10 a otro tipo de redes como las LSTM.

  • 'PART IV: EVALUATING INTERPRETABILITY AND EXPLANATIONS:' Esta parte se centra en la evaluación cuantitativa de la explicaciones proporcionadas y la comparación entre diferentes técnicas.

    • '12. Comparing the Interpretability of Deep Networks via Network Dissection:' Se presenta la técnica denominada 'network dissection', una técnica que ve las unidades de una red neuronal como detectores de conceptos y mide la interpretabilidad como el grado de alineamiento entre las activaciones de la red neuronal y los conceptos del mundo real.

    • '13. Gradient-Based Vs. Propagated-Based Explanations: An Axiomatic Comparison:' Se propone la evaluación de las técnicas de explicación mediante un enfoque axiomático y, en concreto, se consideran tres propiedades axiomáticas y con base en ellas se comparan los métodos basados en gradiente frente a los LRP.

    • '14. The (Un)reliability of Saliency Methods:' presenta un estudio de la calidad y fiabilidad de los llamados métodos de prominencia ('saliency methods').

  • 'PART V: APPLICATIONS OF EXPLAINABLE AI:' Se muestran algunos casos de uso de la explicabilidad en ámbitos como la visión artificial, ciencias físicas e investigaciónb del cerebro, ocupando esta parte, los siguientes siete capítulos:

    • '15. Visual Scene Understanding for Autonomous Driving Using Semantic Segmentation:' Se aplica el problema de la explicabilidad y la inspectabilidad al caso de los vehículos autónomos y se propone un modelo de segmentación semántica que aplica una clase de objeto a cada pixel de la imagen de entrada. Los mapas así creados son interpretables por personas.

    • '16. Understanding Patch-Based Learning of Video Data by Explaining Predictions:' Se cambia completamente de tercio para aplicar la explicabilidad al ámbito de las propiedades moleculares y la predicción de actividad biológica.

    • '17. Quantum-Chemical Insights from Interpretable Atomistic Neural networks:' Saltamos al campo dela química, para ver las posibilidades de uso en la predicción de propiedades químicas con base en redes neuronales profundas.

    • '18. Interpretable Deep Learning in Drug Discovery:' Un poco en línea con el capítulo anterior ahora se aborda el uso de la explicabilidad en el problema de las propiedades moleculares y la predicción de bioactividad.

    • '19. NeuralHydrology - Interpreting LSTMs in Hydrology:' En este caso contemplamos el uso de una red LSTM para la predicción de lluvia.

    • '20. Feature Fallacy: Complications with Interpeting Linear Decoding Weights in fMRI:' Se comentan los retos para la intepretación de modelos de inteligencia artificial en neurociencia, por ejemplo, en neuroimagen (fMRI).

    • '21. Current Advances in Neural Decoding:' Finalmente se aplica la explicabilidad a la reconstrucción de la experiencia visual de un sujeto, a partir de patrones de actividad neuronal.

  • 'PART VI: SOFTWARE FOR EXPLAINABLE AI:' Una parte final, compuesta por un sólo capítulo para ver alguna solución de software cocreta

    • '22. Software and Application Patters for Explanation Methods:' Se explica el uso de diferentes soluciones software como, por ejemplo, cómo implementar la técnica basada en gradiente con TensorFlow o las herramientas iNNvestigate.

'Explainable AI: Interpreting, explaining and visualizing deep learning' llena, probablemente, en el momento de escribir esta reseña, un cuasi-vacío en literatura técnica alrededor de la explicabilidad de la inteligencia artificial y proporciona una sólida guía, bien que no del toda sencilla, a tan interesante e innovadora materia.

Ficha técnica:

lunes, 13 de septiembre de 2021

Logro, realización y automatización

Casi desde el principio de los tiempos, de nuestros tiempos como especie, el ser humano ha usado tecnologías para ayudarle en su trabajo. Al principio cosas muy sencillas tecnológicamente aunque de enorme importancia,  como las hachas de sílex o la rueda, y poco a poco las hemos ido sofisticando.

El uso de la tecnología y de la automatización de tareas, ha sido creciente, con una explosión en la revolución industrial y, probablemente, una nueva explosión de grandes proporciones que vivimos ahora mismo, en estos años donde ya no sólo se automatizan tareas físicas y manuales sino también muchas tareas de naturaleza intelectual.

Si desarrollamos y usamos tecnología hay que pensar que lo hacemos porque queremos, porque nos interesa, porque nos es útil, porque, en definitiva, nos es beneficiosa de alguna manera.

Sin embargo ante el avance creciente de las tecnologías de automatización y, en especial, ante la posibilidad, discutida eso sí, que el desarrollo de la inteligencia artificial permita acometer la automatización masiva de tareas intelectuales, que se uniría a la automatización masiva de tareas manuales, dando como resultado un eventual desempleo masivo, surgen preguntas sobre si realmente eso es lo que queremos hacer.

No hay acuerdo ni sobre si realmente nos dirigimos hacia un desempleo masivo o, por el contrario, vamos a experimentar un crecimiento neto de empleo. Ni tampoco hay acuerdo sobre si una situación de ocio generalizado (financiado de alguna manera, eso sí, mediante renta básica universal o mecanismo similar) sería deseable o no.

Relacionado con este último aspecto, la deseabilidad o no de esa situación de ocio generalizado, traigo a colación unas consideraciones que hace el filósofo John Danaher en su libro 'Automation and Utopia: Human Flourishing in a World without Work': El autor, dedica unos pocos párrafos a analizar qué es lo que nos motiva a los humanos, que es lo que conduce a la sensación de logro y realización y si la automatización puede afectarle.

Y recurre para ello, primero, a los tres factores que según otra filósofa, Gwen Bradford, conducen a que un proceso genere sensación de logro, de realización en un ser humano. Son estos tres:

  • Hemos seguido un proceso que produce un resultado valioso en el que estamos interesados

  • El proceso seguido es suficientemente difícil.

  • Es un proceso que no se produce por suerte, sino que precisa de habilidad o competencia por nuestra parte.


Una vez identificados estos tres factores, Danaher reflexiona brevemente sobre el impacto de la automatización y entiende que ésta, la automatización, erosiona los dos últimos factores. Un proceso o tarea automatizado pasa a ser sencillo o incluso trivial (en buena medida, para eso lo automatizamos). Y, además, pasa a ser un proceso o tarea que deja de precisar habilidad o competencia por nuestra parte. Eso sí, el resultado sigue produciéndose (y, apunto yo, probablemente en mayor medida) y sigue siendo valioso.

Hasta aquí parece que la automatización va en contra de la motivación, la sensación de logro y la realización ¿no? Si, eso parece pero no es del todo así, no solo para mi, sino para el propio Danaher.

Y no lo es porque, en primer lugar, salvo que pensemos en una automatización realmente extrema, siempre quedarán tareas y trabajos en los que podemos intervenir los humanos y que serán valiosos, difíciles y precisen de habilidad por nuestra parte. La idea es que además, justamente, lo que se automatice tenderá a ser lo que menos satisfacción suele producirnos.

Y no lo es porque, de nuevo, salvo que pensemos en una automatización realmente extrema, las tecnologías de automatización en realidad en muchos casos, más que sustituir totalmente, ayudarán a los humanos o colaborarán de alguna forma con ellos para potenciar otro tipo de tareas de orden superior. En el libro se ejemplifica con la atención médica indicando como el diagnóstico puede verse ampliamente automatizado (por ejemplo, en análisis de imagen) pero al final el médico toma la decisión diagnóstica. En ese caso, es cierto que habría una automatización parcial de la tarea, pero una automatización que sirve de ayuda. El médico, la persona, seguiría encontrándose con un resultado valioso, razonablemente difícil de obtener (aunque es cierto que en este punto habría habido una simplificación) y que aún precisa de competencia por su parte, por parte del médico.

No creo que el problema del impacto de la automatización en el empleo ni en nuestra motivación sea realmente un problema resuelto ni mucho menos. 

Pero tiendo a ser optimista. 

Tiendo a pensar que siempre habrá trabajo que hacer (y por tanto empleo) y que siempre encontraremos tareas que nos resultan satisfactorias y que, en realidad, la tecnología y la automatización, en general eliminarán aquello que no nos resulta satisfactorio más que aquellas otras actividades más humanas y que conducen más probablemente a la sensación de logro y realización.


miércoles, 8 de septiembre de 2021

Transferencia digital de estados de ánimo

A través de las redes sociales y de los medios digitales, podemos transmitir muchas cosas. Podemos transmitir información y noticias, ya sea del mundo en general, de nuestro entorno cercano o de nosotros mismos y nuestro micro-mundo, personal o profesional. Podemos transmitir opiniones, tengan éstas mayor o menor fundamento. Podemos transmitir ogras literarias y artísticas. Y podemos transmitir, por desgracia, bulos y mentiras. 

Y podemos también contar nuestro propio estado de ánimo, nuestras alegrías, motivaciones, disgustos o frustraciones.

¿Algo más?

Si, algo más. Resulta, o al menos eso parecen indicar las investigaciones, que no sólo se puede hablar de estados de ánimo (transmitir nuestro estado de ánimo no deja de ser, en el fondo, transmitir una información acerca de nosotros mismos) sino que también podemos influir en el estado de ánimo de muestra red.

Claro, si eso lo hacemos a nivel particular, su impacto es mínimo, pero la cosa puede ser diferente si hablamos de una 'manipulación' del estado de ánimo general desde instancias más poderosos.

¿A qué me refiero?

Leyendo el libro 'Weapons of math destruction' de la matemática norteamericana Cathy O'Neil, encuentro un pasaje en que la autora cita un estudio realizado en 2012 por Adam D. I. Kramer, Jamie E. Guillory y Jeffrey T. Hancock y recogido en el artículo 'Experimental evidence of massive-scale emotional contagion through social networks'.

En ese estudio se trabajaba sobre la red social Facebook  y, en concreto, sobre un público de 680.000 usuarios de esta red,. Lo que se hacía era clasificar las publicaciones en función de si transmitían un estado de ánimo positivo o negativo. A continuación se manipulaban las actualizaciones que recibían esos usuarios de forma que predominasen, o bien las positivas, o bien las negativas. Y, por último, se analizaba la positividad o negatividad de las actualizaciones realizadas por esos usuarios tras haber sido expuestos a los mensajes del experimento.  

¿El resultado?

Pues, como estoy seguro de que ya se imagina el lector, los usuarios que habían sido expuestos en su feed a mensajes con estado de ánimo positivo, se comportaban emitiendo ellos mismos actualizaciones predominantemente positivas. Por el contrario, los usuarios expuestos a mensajes fundamentalmente negativos se comportaban ellos mismos emitiendo actualizaciones más negativas.

La conclusión, tal como la leo en el libro de O'Neil es:


Emotional states can be transferred to others..., leading to experience the same emotions without their awareness


O sea, que podemos transmitir estados de ánimo a terceros (no información sobre estados de ánimo, sino el propio estado de ánimo) y lo podemos hacer usando redes sociales. Y eso, sin que los receptores sean conscientes de ello. En el fondo, si lo pensamos bien, no sorprende demasiado el hallazgo. Casi luce natural, y tampoco parece, en absoluto, que sea un fenómeno propio de los medios digitales sino que, es algo propio de nuestra naturaleza social y de nuestra integración en grupos.

Lo relevante, y lo que puede preocupar, es la escala y la posibilidad de manipulación. 

Con base en este fenómeno una compañía como Facebook (y menciono Facebook no sólo porque es la usada en el estudio, sino por su tamaño,  comportamiento e impacto reales), una compañía que llega, a más de 2.500 millones de personas, y una compañía que, como bien sabemos, selecciona y filtra en cierta medida los feeds y actualizaciones que recibimos, tiene la capacidad de influir en el estado de ánimo de millones de personas en la dirección que desee. 

La propia Cathy O'Neil se pregunta qué puede ocurrir si Facebook se propone influir en el estado de ánimo en un día de elecciones. Pero podemos añadir otras situaciones como podría ser un crack bursátil, un atentado o, siendo más positivos, un evento deportivo o el lanzamiento de un producto comercial (n nuevo dispositivo de Apple o una nueva serie en Netflix, por decir algo) a escala mundial.

El poder en sus manos, o en el de redes de similar alcance, es enorme. Un poder subrepticio y no evidente pero muy real y un poder que espero seas sólo latente pero que se puede desplegar en cualquier momento.

¡Uf!