domingo, 31 de diciembre de 2023

Bibliografía 2023

Y para cerrar el año en este blog, y como llevo haciendo ya, con éste, catorce años, el último post lo dedico a resumir y comentar mis lecturas del año, en materias que tienen que ver con mi actividad profesional y con los contenidos de este blog: management, tecnología y algunas otras ideas en forma de ensayos más o menos relacionados con mi actividad o intereses profesionales.

Este año, entre mis lecturas, predomina todo lo que tiene que ver con inteligencia artificial y robótica. 

El foco, en el primer caso, ha estado, como es fácil de imaginar, en la inteligencia artificial generativa, tanto en sus conceptos y fundamentos técnicos, como en su materialización en herramientas, fundamentalmente ChatGPT y Midjourney.

En el caso de la robótica, aparte de alguna aportación de naturaleza realmente tecnológica como ROS, soft robotics o cobots, he incidido mucho en lo que tiene que ver con la visión filosófica de la misma y en la denominada roboética.

Aparte de esto, han tenido su lugar lugar, como suele ser habitual, la transformación digital, la innovación u otras tecnologías como BigData, blockchain o la ciberseguridad.


Lista completa de lecturas


Y estos son, en fin, los libros relacionados con mi actividad profesional cuya lectura he culminado en 2023:


Management


  • Why Digital Transformations fail
  • IT Management in the Digital Age
  • IT Departments from the Info Out
  • El marketing y el protocolo familiar
  • Managing innovation
  • Robots won’t save Japan
  • Todo vuelve a cambiar
  • Empresas que crecen con alma
  • Critical thinking
  • The technology falacy
  • The delicate art of bureaucracy
  • The digital mindset


Tecnología


  • Deep Generative Modeling
  • Python for Data Analysis
  • Transformers for Natural Language Processing
  • Natural Language with Transformers
  • Screen Scraping made easy step by step
  • A concise introduction to robot programing with ROS2
  • Power & Prediction
  • The only ChatGPT Prompts book you'll ever need
  • Domina ChatGPT en tres días
  • ChatGPT AI in education
  • Enhancing Education: Empowering Teachers with ChatGPT
  • ChatGPT para profesores
  • The Midjourney Version 5 Prompt Book
  • Aprende a usar Midjourney
  • The Next Frontier in AI: ChatGPT and Midjourney in the coming years and Beyond
  • Los robots y sus capacidades
  • Artificial Intelligence & Generative AI for Beginners: The Complete Guide
  • Qué sabemos de Blockchain
  • Qué sabemos de Big data
  • Lo que sabemos de Inteligencia Artificial
  • ChatGPT para profesores:90 plantillas
  • Inteligencia Artificial para profesores
  • Computational approaches to conscious artificial intelligence
  • Foundation Models for Natural Language Processing
  • The art of prompt engineering
  • Robots y cobots industriales
  • La inteligencia artificial explicada a los humanos
  • The worlds I see
  • The science of soft robots
  • Practical MS Copilot
  • Comprehensive guide to Robotic Process Automation
  • Ciberseguridad para directivos


Ensayo: ciencia y humanidades


  • This is technology ethics
  • Critica de la razón práctica
  • Robot theology
  • 21 lessons for the 21st century
  • Qué es la ética aplicada
  • Busines Ethics
  • Estupidez artificial
  • Alone together
  • Tecnofilosofía
  • Tecnología para la salud
  • El camino del artista
  • Robot souls
  • Person, Thing, Robot
  • The ethics of artificial intelligence


Si tienes curiosidad por conocer mis lecturas en materia de literatura y ficción, puedes consultar el post casi gemelo de este, que publico en mi blog 'El cielo del gavilán' y que se titula 'Mis lecturas de 2023'.


Ranking


Todos los años comento la dificultad que supone elaborar un ranking de los mejores libros. En general, tengo clara la división entre los libros realmente buenos o interesantes, y que se merecen entrar en el ranking, y cuáles no, cuáles son libros que, o bien no tenía muchas expectativas y  se trataba de lecturas de las que yo denomino 'tácticas', o bien me han decepcionado. Pero una vez seleccionados los que realmente han sido satisfactorios o muy satisfactorios, el ordenar cuál ha sido el mejor u ordenar los mejores, es una actividad compleja y en la que fácilmente puedo ser injusto o incluso inconsistente (a lo mejor si hiciese este mismo post dentro de unos días mi selección podría ser algo diferente).

Este año, y como se verá, entre mis libros favoritos la mayoría no cae dentro de mis bloques de estudio principales. a saber, tecnología o 'management', sino que entran dentro de la visión más filosófica, integradora y ética de la tecnología en general y de los robots en particular.

En cualquier caso, con todas esas reservas que habitualmente expreso, ahí va mi ranking de este 2023.


(1) Foundation models for natural language processing


'Foundation models for natural language processing' es un libro excelente que se merece estar en la parte alta del ranking por muchos motivos. 

En primer lugar, es muy oportuno porque, como todos los interesados en tecnología saben, éste ha sido el año de la inteligencia artificial generativa. En este campo he leído mucho libros, algunos profundos, como éste, y otros muy superficiales. 

Por otro lado, se trata de un libro muy amplio, cubriendo todo tipo de modelos fundacionales y todo tipo de aplicaciones, y muy riguroso.

 Además, y aunque particularmente no es un tema que a mí me resulte tan relevante, es un libro que se puede obtener de forma gratuita por estar incluido dentro de la iniciativa Open Access de Springer.

El único punto a advertir por si algún lector se interesa en este libro, es que no es un libro sencillo en absoluto. Es preciso leerlo muy despacio para asimilar todo lo que cuenta, aunque una lectura más rápida también permite hacerse una muy buena idea aunque no se comprendan los detalles.


(2) This is technology ethics


'This is technology ethics' es otro libro muy oportuno, dado el interés actual, y afortunado, en la ética en relación con la tecnología. Este libro explica de una forma abarcadora, comprensible y atractiva, los conceptos de ética aplicada en el caso de la tecnología aunque, como se puede imaginar, tanto por la actualidad del tema, como por la trayectoria del autor, su foco principal es la ética en el caso de la inteligencia artificial, los robots y los vehículos autónomos.

Sven Nyholm, es uno de mis 'filósofos de cabecera' en materia de ética de la tecnología y este libro es una gran introducción para cualquier interesado. 


(3) Person, Thing, Robot


Casi a la par con el anterior, destacaría 'Person, Thing, Robot' de David Gunkel, otro de mis filósofos de cabecera y con el cual, además, tuve la oportunidad de dialogar en directo, precisamente hablando sobre el contenido del libro, en la segunda edición de los eventos 'Robots & Philosophy' que organizo como parte de mi actividad en OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial).

En este libro, Gunkel revisa dos extremos ontológicos tradicionales sobre el estatus moral de los diversos entes que, en función de si los consideramos más como personas o más como cosas, se les asigna un estatus moral. Gunkel propone, para el caso de los robots, una vía intermedia.

Muy interesante, no sólo para conocer la posición de Gunkel, sino para tener una muy buena panorámica de las opiniones existentes en este campo de la roboética.


Accesits


Y no me resisto a mencionar además, otras dos obras, también en este terreno intermedio entre la tecnología y las humanidades, de autores españoles y a los cuáles, además, tengo la fortuna de conocer personalmente.

Así, tenemos el caso de 'Estupidez Artificial' de Juan Ignacio Rouyet, un libro certero, irónico, divertido y muy fácil de leer, que aunque empieza hablando un poco de la adopción de la tecnología en general y de las resistencias que genera para evolucionar, en la parte principal del libro, a una revisión ética de la inteligencia artificial.

El otro es 'Tecnofilosofía' de Aníbal Astobiza, un libro, también, de filosofía de la tecnología, serio pero accesible, y con unos planteamientos bastante cercanos a los de Gunkel o Nyholm, apostando por una visión fenomenológica de la ética de las máquinas, que denomina conductismo relacional.


Cara a 2024


Aunque nunca se sabe lo que puede traer consigo un nuevo año, y menos en el turbulento panorama tecnológico actual, creo que la línea de lectura del año que comienza, será similar a la de este 2023.

Visitaré puntualmente los temas de la transformación digital y la innovación y seguramente haga excursiones de actualización a las tecnologías más relevantes hoy en día como el cloud computing, blockchain, internet de las cosas, realidad extendida.

Y en el ámbito de gestión visitaré también otros temas estrella como la gestión de procesos de negocio o su automatización, especialmente la denominada automatización inteligente.

Pero, casi sin duda, mi foco principal de estudio seguirán siendo la inteligencia artificial y la robótica intentando una visión en 360 grados que incluya la tecnología en sí misma, su aplicación e impacto en los negocios y la visión filosófica y ética.

Dentro de un año, lo revisamos.


Artículos de este blog relacionados


sábado, 30 de diciembre de 2023

Mis #TEDTalks de 2023

Y en este 2023, y siendo fiel a la cita que inicié en 2014, el 30 de Diciembre publico un pequeño post en que resumo las TED Talks que he visionado en el año que finaliza.

Este 2023 he visto 47 TEDTalks, no muchas más ni muchas menos de las habituales. en años precedentes.

Aunque la motivación principal para visionar TED Talks, cuando empecé, era fundamentalmente practicar mi inglés, pronto se unió una segunda motivación, a saber, observar a los grandes 'speakers' actuar, y estudiar cómo contaban sus historias.

Sin embargo, un tercer objetivo, que pronto se manifestó, a saber, aprender de diferentes temas o descubrir nuevos temas o conocer, o 'qué se está diciendo' de temáticas que me interesan, ha sido casi la motivación principal para ver estas TED Talks en los últimos años y, en concreto, en 2023.

En ese sentido, este año he buscado más el tema, el contenido, que el speaker u otros criterios, aunque la temática en sí misma nunca es un objetivo completo por si mismo, sino solo la motivación principal siempre aderezada por el conferenciante o por la originalidad de la propuesta


Las #TEDTalks de 2023 


En cualquier caso, y siguiendo esos criterios, éstas son las 47 charlas que al final he visualizado este año:




De cara a 2024


Para el año que viene, no preveo hacer grandes cambios. Seguiré, por supuesto, visualizando TED Talks, a un ritmo aproximado de una por semana (con excepciones en temporadas de vacaciones) y con más foco en la temática que en otra cosa. Y en ese sentido, es fácil que aparezcan charlas sobre inteligencia artificial, sobre robótica, sobre ética, etc, pero estando dispuesto, siempre, a dejarme sorprender o a explorar otras temas sobre ciencia, cambio, liderazgo o lo que sea que me resulte llamativo, interesante y que me parezca que vale la pena prestarle atención.

Y, salvo error u omisión, hablaré de ellas dentro de un año, el 30 de Diciembre de 2024.

Artículos de este blog relacionados

viernes, 29 de diciembre de 2023

Inteligencia artificial y peripecia personal en los mundos que ve Fei Fei Li

'The worlds I see' es una obra escrita en una clave muy, muy personal por Fei Fei Li, uno de los grandes personajes de la inteligencia artificial y creadora del dataset de imágenes ImageNet y el concurso asociado que ha resultado muy importante para el desarrollo de la visión artificial. Un relato que mezcla la peripecia personal de la autora, desde su China natal, pasando por su emigración en Estados Unidos, o su integración en este pais y su carrera académica, mezclada con los avances en inteligencia artificial, especialmente visión artificial, y las contribuciones de la autora a ese desarrollo.

El libro se estructura en doce capítulos, cada uno de los cuales mezcla ambas visiones, según el siguiente desarrollo:
  • '1. Pins and Needles in D.C.:' Comienza, para en el resto del libro hacer una suerte de 'flashback', relatando su intervención en el comité de ciencia, espacio y tecnología del Congreso de los Estados Unidos.

  • '2. Something to Chase:' Relata su infancia en China, en la ciudad de Chengdu, nos presenta a sus padres y alguna experiencia escolar, incluyendo una muy dolorosa en que sintió claramente la discriminación por ser mujer, y finaliza contando la partida de su padre para Estados Unidos y la preparación del viaje que ella misma y su madre harían tiempo después.

  • '3. A Narrowing Gulf:' Comienza relatando algunos de los primeros pasos de la inteligencia artificial, incluyendo las primeras redes neuronales, y mezclado con ello vuelve a su vida personal contando su llegada a Estados Unidos, las llamadas a sus abuelos en China, sus dificultades escolares y su posterior pasión por la física y las matemáticas, su descubrimiento de la Universidad de Princeton y su primer encuentro con Mr. Sabella, profesor que marcaría una buena parte de su vida.

  • '4. Discovering the Mind:' Cuenta sus primeros pasos como universitaria en Princeton, sus primeras preocupaciones por la salud de su madre que será una constante el resto de su vida, las dificultades financieras de la familia o la inestimable ayuda de Mr. Sabella anímica y económica. También relata cómo, sin dejar de amar la física, descubre el mundo de la computación y su decisión de pasar el verano colaborando en un proyecto en Berkeley sobre neurociencia, que le hace cambiar su visión sobre la física y pensar en su futuro profesional en otro camino.

  • '5. First Light:' Comienza con una suerte de introducción en que habla del cerebro y del sentido de la visión y de ahí salta a hablar de su graduación en Princeton y su búsqueda de un futuro como profesora e investigadora, acabando por decidirse por Caltech y la investigación en ciencias de la visión.

  • '6. The North Star:' Cuenta su estancia en Caltech y sus primeros pasos en visión artificial. Coincide en el tiempo con una nueva y grave crisis de salud de su madre que le hace incluso llegar a valorar abandonar la investigación e incorporarse a McKinsey para hacer frente a la distancia y necesidades económicas, cosa que al final no hace por expresa recomendación de su madre. También habla de la primera creación de una base de imágenes, Caltech 101 para su uso en visión artificial. Y aparece Silvio, quien acabará convirtiéndose en su marido.

  • '7. A Hypotheses:' relata la culminación de su doctorado en Caltech y el descubrimiento del proyecto Wordnet para procesamiento de lenguaje natural. También habla de cómo, tras un año como profesora en Urbana-Campaign, acepta un puesto en Princeton con laboratorio propio. Sobre todo habla de la idea de lanzar ImageNet con todas las dificultades que supone y la aparición de los primeros colaboradores. También comenta las grandes dificultades para poner en marcha una base de imágenes tan gigantesca, hasta el descubrimiento del concepto del crowdsourcing y el Mechanical Turk de Amazon. Finaliza con la decisión de trasladarse con su equipo a Stanford y la presentación de Imagenet en la CVPR donde, para decepción de Li y su equipo, es relegada a un mero poster.

  • '8. Experimentation:' Comienza contando el primer certamen basado en ImageNet ganado por una propuesta basada en Support Vector Machines que no suponía un gran avance en visión artificial. También relata la muerte de Mr Sabella. Vuelve luego de nuevo a ImageNet y cuenta cómo en un siguiente año el certamen es ganado por una solución basada en redes neuronales, AlexNet, que supone un antes y un después en visión artificial lo que supone un impulso para el campo de la visión artificial, para el deep learning y para la propia ImageNet y el equipo de Fei Fei Li.

  • '9. What Lies beyond Everyting?:' Cuenta cómo empieza a considerar que el tamaño de ImageNet puede no ser suficiente y también habla del proyecto de Street View así como de los intentos de unir visión artificial y lenguaje natural consiguiendo descripciones de imágenes. Al final, comenta cómo identifica que les está superando en avances no una niversidad, como podía suceder hasta ese momento, sino una empresa como es el caso de Google.

  • '10. Deceptively simple:' Comienza con una nueva crisis en la salud materna que le lleva a contemplar la posibilidad de unir su pasión por la inteligencia artificial con usos de beneficio social y empieza pensando en un sistema para comprobar que los sanitarios se lavaban las manos correctamente. A ese tipo de soluciones las denomina 'inteligencia ambiental'.

  • '11. No Ones to Control:' Comenta cómo cada vez más el control de la evolución de la inteligencia artificial se encuentra en manos de empresas y nos habla de su incorporación a Google Cloud como chief scientist. En medio, da relevancia a una conversación inusualmente seria con su padre, en que éste parece prepararla para la eventual muerte de la madre. Al final del capítulo se habla de la ética de la inteligencia artificial y nos reencontramos con la intervención en la comisión del Congreso de los Estados Unidos.

  • '12. The Next North Star:' Habla del concepto de la Human-Centered AI' y del centro HAI de Stanford. También se menciona ya la inteligencia artificial generativa y los grandes modelos de lenguaje.
'The worlds I see' es una obra apasionada y bastante personal, es donde se entremezcla el desarrollo de la inteligencia artificial y la visión artificial con la vida de la autora, teniendo en el fondo mucho más peso, precisamente, esa aventura personal y las vivencias de Li a lo largo de los años que los elementos científicos y técnicos, aunque es cierto que es una perspectiva interesante contemplar esos avances desde la perspectiva de una de sus protagonistas de primera mano.

Un libro algo diferente, ni técnico ni literario, sino algo así como unas memorias con altas dosis de ciencia y tecnología.
 

Fei Fei Li


(Fuente: Ligera elaboración propia de su entrada en Wikipedia)

Fei Fei Li
Fei-fei Li (Pekín, 1975), es profesora de ciencias de la computación en la Universidad de Stanford. Actualmente es la codirectora del Instituto de Inteligencia Artificial Centrada en el ser humano en la Universidad de Stanford y el Laboratorio de Aprendizaje y Visión de Stanford. Tuvo el cargo de directora del Laboratorio de Inteligencia Artificial de Stanford (SAIL), de 2013 a 2018. En 2017, fue cofundadora de AI4ALL, una organización sin fines de lucro que trabaja para aumentar la diversidad y la inclusión en el campo de la inteligencia artificial. Su experiencia en investigación incluye inteligencia artificial(IA), aprendizaje automático, aprendizaje profundo, visión artificial y neurociencia cognitiva. Li es una de las investigadoras más prolíficas en el campo de la IA. Fue la científica líder e investigadora principal de ImageNet, un conjunto de datos críticos y un proyecto de visión por computadora que dio como resultado la reciente revolución del aprendizaje profundo.

Desde 2005 hasta agosto de 2009, Li fue profesora asistente en el Departamento de Ingeniería Eléctrica e Informática de la Universidad de Illinois en Urbana-Champaign y el Departamento de Informática de la Universidad de Princeton, respectivamente. Se unió a Stanford en 2009 como profesora asistente y fue promovida a profesora asociada con permanencia en 2012, y luego profesora titular en 2017. En Stanford, Li se desarrolló como Directora del Laboratorio de Inteligencia Artificial de Stanford (SAIL) de 2013 a 2018, supervisando el crecimiento más rápido del laboratorio durante este período. Se convirtió en la Codirectora fundadora de la iniciativa a nivel universitario de Stanford: el Instituto de AI centrado en el ser humano, junto con el Co-Director John Etchemendy, exdirector de la Universidad de Stanford.11​

En su año sabático de la Universidad de Stanford desde enero de 2017 hasta el otoño de 2018, Li se unió a Google Cloud como su científica principal de AI / ML y Vicepresidenta. En Google, su equipo se enfoca en democratizar la tecnología de inteligencia artificial y en reducir la barrera de entrada para negocios y desarrolladores, incluidos los desarrollos de productos como AutoML. Regresó a la Universidad de Stanford para continuar su cátedra en el otoño de 2018.

Li también es conocida por su trabajo sin fines de lucro como cofundadora y presidenta de la organización sin ánimo de lucro AI4ALL, cuya misión es educar a la próxima generación de tecnólogos, pensadores y líderes de la IA mediante la promoción de la diversidad y la inclusión a través de los principios de la AI centrados en el ser humano. Antes de establecer AI4ALL en 2017, Li y su exestudiante Olga Russakovsky, actualmente profesora asistente en la Universidad de Princeton, cofundaron y co-dirigieron el programa precursor en Stanford llamado SAILORS (Stanford AI Lab OutReach Summers). SAILORS fue un campamento de verano anual en Stanford dedicado a niñas de secundaria de 9º grado en educación e investigación de AI, establecido en 2015 hasta que cambió su nombre a AI4ALL @Stanford en 2017. En 2018, AI4ALL lanzó con éxito cinco programas de verano más además de Stanford, incluida la Universidad de Princeton,​ la Universidad Carnegie Mellon, la Universidad de Boston, la Universidad de California Berkeley y la Universidad canadiense Simon Fraser.​

Puedes conocer más de la autora visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @drfeifei.
  

Ficha técnica:


AUTOR: Fei Fei Li
EDITORIAL: Flatiron books
AÑO: 2023 
ISBN: 978-1250897930
PAGINAS: 336

miércoles, 27 de diciembre de 2023

En busca de un estatus moral para robots: pruebas de consciencia y 'personalidad'

Como todo buen lector de este blog sabrá, me interesan mucho los robots, desde todos los puntos de vista, uno de los cuales es el ético y casi diría, filosófico, que se reúne, de alguna forma en la seudo-disciplina de la roboética.


La problemática de fondo: el estatus moral de los robots


Uno de los problemas fundamentales que se tratan en esa rama del conocimiento o, quizá sería más correcto decir, la investigación y análisis, es si los robots deben tener alguna forma de estatus moral, si les debemos alguna forma de consideración, quizá, en el caso más extremo, al mismo nivel que las personas o quizá a niveles inferiores como los que podemos adjudicar a los animales, por ejemplo.

En mi investigación particular, esencialmente consistente en la lectura de autores relevantes de ese campo, hace unas semanas finalicé la lectura del libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel, que ya he citado en varios posts anteriores.

Muy en esencia, el desarrollo del libro nos dice que tradicionalmente, el problema del estatus moral de los robots se ha realizado desde su ontología, desde su naturaleza, intentando decidir si son más como una persona (lo que les haría merecedores de estatus moral) o como una cosa (que se lo denegaría).

Existe también un enfoque fenomenológico que ya comenté en el post anterior pero en el que ahora no me detendré.

En cualquier caso, en el desarrollo del libro de Gunkel, examina diferentes posiciones y análisis, tanto con las cosideraciones como cosa, como en las consideraciones como persona, como en la vía intermedia.

Y en el ámbito de la visión como 'persona', me encuentro dos planteamientos que me ha parecido anotar aquí.

Se trata de dos planteamientos en que, de alguna forma, se plantean pruebas que podrían determinar si un robot merece estatus moral.


Las prueba de consciencia de David Levy 


David Levy

El primero de ellos, se debe a David Levy según he entendido, el primero que se 'atrevió' a hablar de relaciones románticas y sexuales con robots, y se recoge en el artículo 'The Ethical Treatment of Artificially Conscious Robots'.

Como ya creo haber comentado anteriormente, existe una línea de pensamiento en que identifica dos elementos que hacen a un ser artificial, digamos un robot, merecedor de estatus moral, a saber, la 'sintiencia' (la capacidad de sentir placer y sobre todo de sufrir) y la consciencia.

El planteamiento de Levy el factor relevante es la consciencia y proporciona dos criterios o dos pruebas de naturaleza psicológica, por mejor decir, para identificar si un ente es consciente, a saber


  • Capacidad para reconocerse a sí mismo y en ese sentido, Levy propone una variante de la prueba del espejo de Gordon Gallup, desarrollada en los años 70.

  • Retardo estímulo-acción es decir, la prueba del retardo de Francis Crick y Christof Koch que se basa en el retardo entre un estímulo concreto y la ejecución de alguna acción subsiguiente.


Se trata de un planteamiento interesante, si no, evidentemente, no lo recogería en el blog, pero me parece que en cierto sentido insuficiente y, sobre todo, diría que hoy en día es falseable.

¿A qué me refiero?

Creo que la prueba del espejo, que hasta donde sé, ya ha sido explícitamente superada por robots, realmente se puede conseguir 'fácilmente' con las capacidades de visión artificial actuales, sin que ello suponga una verdadera consciencia, sólo una forma de reconocimiento de objetos relacionado con la auto-percepción.

Igualmente, a falta de mayor análisis y de entender mejor qué se espera de ese estímulo respuesta, esa relación y ese retardo se produce en casi cualquier robot sin que, de nuevo, me parezca que eso demuestra consciencia.

Tengo la sensación que el planteamiento de Levy se ha quedado, en cierto sentido, obsoleto, superado por una tecnología que ya es capaz de superar las pruebas planteadas, pero que, sin embargo, no alcanza, probablemente ni siquiera se acerca, a la consciencia tal y como se manifiesta en humanos.


La prueba de 'personalidad' de Patrick Hubbard


El segundo planteamiento se debe a Patrick Hubbard y se recoge en 'Do Androids Dream?": Personhood and Intelligent Artifacts'. 

Patrick Hubbard

Hubbard desarrolla una suerte de 'test de capacidad para la personalidad'. Advierto en este punto la dificultad para traducir 'personhood' al español, porque la traducción como 'personalidad' no es realmente exacta. En el planteamiento de Hubbard creo que ese 'personhood' se refiere a algo así como 'naturaleza de persona' o, si se quiere, hasta cierto punto, 'humanidad'. En realidad se refiere, de alguna forma, a la cualidad, que seguro tenemos las personas, y que nos hace acreedores de estatus moral.

Hecha esa aclaración, los tres elementos, las tres capacidades que Hubbard considera empíricamente observables, son:


  • Interacción: Capacidad para interaccionar de una forma significativa con el entorno mediante la recepción y decodificación de entradas desde el entorno y el envío de datos inteligibles al mismo.

  • Auto-consciencia: Poseer el sentido de un 'sí mismo' ('self') que no sólo existe como una entidad diferenciada a lo largo del tiempo, sino que además puede ser objeto de una auto-definición creativa en términos de un plan de vida

  • Reconocimiento social: El derecho de un ente a reclamar el derecho a 'ser persona' presupone una relación recíproca con otras personas que reconocerían ese derecho y que, a su vez, podrían reclamarlo.


Los planteamientos de Hubbard, me parecen mucho más cercanos a una verdadera prueba de consciencia. Lo que me cabe la duda es, y a pesar de que se afirma que se trata de cualidades empíricamente observables, si realmente se trata de capacidades realmente perceptibles y medibles y por tanto, si realmente se trata de un planteamiento accionable. 

Además, y utilizando el lenguaje de los teoremas matemáticos, me da la impresión de tratarse de capacidades necesarias, pero no estoy seguro de si son suficientes para la consciencia aunque es cierto que, especialmente la segunda, son condiciones 'fuertes'.


Conclusiones


Es evidente que el problema de la asignación de estatus moral a los robots, no digamos ya el tema de la consciencia, es un tema abierto, aún en debate y reflexión.

Las planteamientos y pruebas mostrados son algunos de los intentos relevantes e interesantes, pero seguramente no definitivos, de explorar esta problemática en busca de una elusiva verdad, de una elusiva conclusión.


lunes, 18 de diciembre de 2023

Visiones fenomenológicas / conductuales del estatus moral de los robots

Quizá el título de este post asuste un poco. Quizá parezca 'demasiado filosófico', quizá demasiado teórico, pero en realidad no va a ser, ni mucho menos, tan difícil de entender.


A vueltas sobre el estatus moral de los robots


Todo esto viene a cuento sobre si los robots, especialmente robots avanzados, deben de tener alguna forma de estatus moral, en el sentido de agencia moral pero, especialmente, de paciencia moral, es decir, si debemos tener alguna  forma de respeto, cuidado o consideración moral hacia los robots.

Y recojo en este post, fundamentalmente, una parte del discurso de David Gunkel, en su último libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond'. 

Ahí, el autor hace un recorrido por las diversas posiciones que respecto a ese estatus moral han hecho diversos autores.

Primero nos resume algunas visiones más ontológicas, en el sentido de que los robots podrían tener o no estatus moral o derechos en función de su propia naturaleza (y si se acercan más a ser una persona o una cosa).


La visión fenomenológica


Pero lo que quiero recoger aquí son varias posiciones de naturaleza, espero utilizar bien el término, fenomenológicas, es decir, que 'no se empeñan' en deducir el estatus moral a partir de la naturaleza de los robots sino de su comportamiento externo, de lo que podemos percibir de ellos, de nuestras relaciones con ellos.

Y lo cierto es que varios autores, y varios autores relevantes, apuestan por esta visión.


La posición de Mark Coeckelberg


El primero que nos menciona Gunkel es Mark Coeckelberg. Coeckelberg dice que, en la práctica, cuando decidimos cómo tratar a un ente, no lo hacemos analizando su naturaleza interna sino sólo cómo se aparece ante nosotros y, en este sentido, Coeckelberg sugiere:


If robots were sufficiently advanced - that is, if they managed to imitate subjectivity and consciousness in a sufficiently convincing way - they coud become others (or at least quasi others) that matter to us in virtue of their appearances.


y Coeckelberg remata con una frase muy directa, relacionando las exigencias morales que hacemos a humanos frente a las que hacemos a los robots:


Why put such high demands on robots if we do not demand this from humans?


Ahí queda eso. 

Como se afirma en otros entornos de la ética e incluso la regulación de la inteligencia artificial, parece como si nos empeñásemos en exigirles más que lo que exigimos a las propias personas.

En cualquier caso, esa es la base de lo que luego Coeckelberg denomina la 'ética social relacional'.


La posición de John Danaher


La segunda posición que resalta Gunkel en su libro es la de John Danaher, una posición que Danaher denomina 'ethical behaviorism', que traduciré, espero que correctamente, como conductismo ético

Según recoge Gunkel, Danaher afirma que:


What's going 'on the inside' does not matter from an ethical perspective. Performative artifice, by itself, can be sufficient to ground a claim of moral status as long as the artifice results in rough performative equivalency between a robot and another entity to whom we afford moral status.


 O dicho de otra forma, si un ente artificial, un robot, parece y actúa como una persona natural, eso es suficiente para atribuirle estatus moral.


La posición de Erica Neely


La tercera posición que nos muestra Gunkel, y que es algo diferente es la de Erica Neely. Su argumento es, quizá, mucho menos teórico, mucho mas práctico, y nos dice:


In general it is wise to err on the side of caution - if something acts sufficiently like me in a wide range of situations then I should extend moral standing to it


Es decir, que podemos no estar del todo seguros pero, puestos a equivocarnos, es mejor hacerlo del lado de la prudencia, asignando estatus moral a los robots que se parezcan suficientemente a los humanos.


La posición de Aníbal Astobiza


Aunque no aparece en el libro de Gunkel, no quisiera dejar de mencionar la posición de un filósofo español, Aníbal Astobiza, al que tengo el placer de conocer y cuyo último libro 'Tecnofilosofía' ya he reseñado en este blog.

Astobiza mantiene una posición parecida que denomina 'conductismo relacional'. En palabras de Astobiza:


El conductismo relacional establece la idea de que cualquier juicio sobre el estatus moral que hagamos de un animal no humano, ser humano, máquina, etc parte de los estados conductuales. Es decir, depende de inferencias que hagamos a partir de la conducta manifiesta externa de esas entidades.


Muy en la línea de los filósofos que hemos visto anteriormente en este post.


Conclusiones


Aunque no existe una posición única ni consensuada ni mucho menos, respecto a la conveniencia de asignar un estatus moral a los robots, hay como dos líneas de razonamiento, una ontológica, con base a lo que los robots son, y otra fenomenológica, con base en la forma en que se comportan y quizá, quizá, ésta última, aunque quizá menos intuitiva en primera instancia, puede resultar más práctica... y parece que avanza en la línea de asignar estatus moral a los robots suficientemente avanzados. 


miércoles, 13 de diciembre de 2023

Ventajas e inconvenientes de una burocracia y un comentario sobre innovación

En el post anterior, 'Estrategia, procesos y burocracia: la lucha contra una percepción equivocada' mencioné, aunque un poco de pasada o como fuente de inspiración del post, el libro 'The delicate art of bureaucracy' de Mark Schwartz y comenté que seguramente escribiría otro artículo recogiendo los pros y los contras que este autor veía en la burocracia.

Bueno, pues éste es ese artículo con los pros y los contras.


Lo primero: qué es una burocracia


Antes, veamos de qué estamos hablando cuando hablamos de burocracia. Schwartz nos propone esta definición:


a bureaucracy is a form of social organization with formal, rigid rules and formal, rigid hierarchies of authority.


Una definición que pone foco en dos elementos: reglas y jerarquías. Y una definición que, y pese a que luego se nos va a hablar también de ventajas, parece sugerir una concepción negativa por el uso del término 'rígido'.

Un par de líneas antes, el propio Schwartz hace algo así como una predefinición, quizá más ambigua pero también más neutral, y nos dice que una burocracia es: 


a way to impose structure on the world so that we can link general principles to actions.


Y aquí el foco, y me parece un foco relevante, es la estructuración y una estructuración que une los principios (algo que parece bueno) a la acción (algo que también parece bueno)

Y una vez que ya tenemos la definición, ¿Qué ventajas y qué inconvenientes ve Schwartz a la burocracia.


Inconvenientes de una burocracia


Empezamos, tal y como lo hace el propio autor, con los inconvenientes, unos inconvenientes que, al menos en algunos casos, nos resultan familiares y que se nos podrían ocurrir fácilmente:


  • Es ineficiente: indica, por un lado, que no proporciona la velocidad que se necesita hoy en día y, por otro, que lleva a realizar actividades sin que exista un verdadero valor de mercado.

  • Desplaza los objetivos: haciendo que nos fijemos más en las propias reglas y su cumplimiento que en lo que realmente se persigue.

  • Ahoga la innovación: optimizando lo que las compañías u organizaciones hicieron en el pasado pero impidiendo las nuevas ideas porque éstas, inicialmente, suelen ser subóptimas y no seguir las reglas.

  • Fomenta los puntos ciegos: ignora lo que realmente las personas u organizaciones saben hacer y hacen que el foco se ponga en las reglas en sí mismas más que en su adaptación a las circunstancias cambiantes.

  • Deshumaniza: sustituyendo la interacción humana por otros mecanismos y perdiendo la visión de la individualidad.

  • Simplifica en exceso: puesto que para establecer una regla se necesita una cierta abstracción y para hacerla más general, se cae en mayores simplificaciones que resultan poco realistas.

  • No es suficiente: en el sentido de no tratar con aquella parte del negocio o la actividad que tiene que ver con la inspiración y la estrategia.

  • Es coercitiva: la burocracia es una forma de controlar a los empleados bajo la asunción de que si se les deja actuar por sí mismos lo harán de forma equivocada.

  • Petrifica: ya que al desplazar el foco hacia las reglas más que hacia los objetivos, hace que las reglas se conviertan en una suerte de tradición que caracteriza a la compañía, la mantiene unida y, por tanto, no se debe desafiar.

  • Es arriesgada por su aversión al riesgo: la aversión al riesgo que supone una burocracia, paradójicamente se convierte en peligrosa ya que impide la adaptación a un entorno cambiante.


Ventajas de una burocracia


Pero Schwartz también contempla ventajas en las burocracias, y éstas, quizá, nos puedan sorprender algo más. En concreto, nos habla de lo siguiente:


  • Es justa: Quizá la más interesante, la burocracia tiende a ser justa ('fair') en el sentido de que trata a todos por igual: establece unas reglas para todos y dejando a un lado posibles sesgos y creencias individuales en favor del beneficio de la organización.

  • Define roles y formaliza: la formalidad y la definición clara de roles y reglas es beneficiosa en muchos puestos y ámbitos de trabajo, típicamente aquellos más mecánicos.

  • Escala: Ayuda a coordinar actividades entre unidades ayudando a las organizaciones cuando éstas crecen y haciéndolas en ese sentido más escalables.

  • Cumplimiento normativo: La burocracia favorece el cumplimiento normativo, algo exigido desde el punto de vista legal

  • Persistencia de la memoria: sirviendo como una suerte de repositorio de las mejores prácticas de la compañía, destiladas a lo largo del tiempo.

  • Resultados racionales: proporciona una cierta predecibilidad que es muy relevante para los mercados, especialmente mercados de capitales.

  • Facilita la creatividad: paradójicamente, y un poco en contradicción con uno de los inconvenientes mencionados antes, una burocracia podría facilitar la creatividad en el sentido de que proporciona una suerte de contexto estable dentro del cual se puede liberar más cómodamente la creatividad.


Conclusiones y un comentario sobre innovación


Aunque en general la palabra burocracia nos sugiere a todos connotaciones negativas, actuando como sinónimo de actividades farragosas, inútiles, sin valor e ineficientes, lo cierto es que, sin negar lo anterior, la burocracia, entendida como una estructuración del trabajo, tiene también importantes beneficios.

Esto nos lleva a la necesidad, dentro de nuestra organización, de acomodar las burocracias de forma que se realcen sus ventajas y se minimicen sus desventajas.

Y probablemente, y pensando en innovación, esto nos llevaría, no voy a hacerlo aquí, a revisar bajo esta luz conceptos como el dilema del innovador, las organizaciones ambidiestras o la oposición exploración/explotación que permiten a una misma organización funcionar de manera más ordenada y eficiente (seguramente también más burocrática) en su 'core business' y de una manera más creativa (seguramente menos burocrática) en lo relativo a la innovación y a la exploración de nuevos productos, nuevos mercados o nuevos modelos de negocio.  


lunes, 11 de diciembre de 2023

Estrategia, procesos y burocracia: la lucha contra una percepción equivocada

A pesar de que con frecuencia, cuando se habla de transformación digital, o de transformación empresarial en general se suelen mencionar los procesos, lo cierto es que, o al menos esa es mi percepción, habitualmente no se hace con rigor, no se está pensando en una verdadera reingeniería de procesos, o en una mejora continua o alguna forma más o menos sistemática de revisión y mejora de los procesos de negocio. En el fondo creo que con frecuencia no se sabe siguiera muy bien de qué se habla al hablar de procesos.

No solo eso, creo que, en el fondo, existe una cierta incomprensión sobre lo que es la gestión de procesos e, incluso, una sutil pero absolutamente cierta resistencia a trabajar con procesos.

Creo que, desconocimiento aparte, se tiende a ver el levantamiento, análisis y rediseño de procesos como una labor larga y poco productiva, más generadora de reuniones y papeles que de resultados de negocio.

Y en cierto modo como algo, digamos, 'viejuno', apartado de la velocidad digital actual y de los enfoques ágiles.


Procesos y burocracia: una percepción equivocada


Me encuentro leyendo el libro 'The delicate art of bureaucracy' de Mark Schwartz, un libro no específicamente dedicado a a procesos de negocio sino, más bien, a la burocracia, especialmente en relación con la gestión TI, y los enfoques ágiles y DevOps.

En un momento dado, sin embargo, el autor se refiere a la mejora de procesos y nos dice:


Process improvement had led unthinkingly to bureaucracy. This is common. The cycle of formalizing, optimizing, documenting, and then applying a process uniformly is the essence of bureaucratic art.


Para ser justos con el autor, para entender bien la frase y antes de comentarla, conviene señalar que, aunque el autor es muy crítico con formas de burocracia que se ha encontrado en su práctica profesional especialmente en el sector público, no descalifica a la burocracia como tal. De hecho, y puede que lo refleje en este blog en otro post, identifica aspectos tanto negativos como positivos en la burocracia, y ve los enfoques ágiles y DevOps, por los que sin duda apuesta, como otras formas de burocracia.

No obstante lo anterior, la lectura de la frase nos hace pensar en la mejora de procesos, y estoy seguro que refleja un estado de pensamiento común, como algo burocrático y, por tanto, como algo que asociamos a tareas incómodas, farragosas y con poco o nada de valor añadido.

No es esa la visión que el autor tiene realmente de la burocracia, pero creo que sí la percepción común en el mundo empresarial unida esa asociación de procesos con burocracia, a una burocracia, además, de 'la mala', de la que encorseta y molesta.


Razones para una percepción equivocada de los procesos


No niego que en ocasiones, puede que más de las deseables, una iniciativa de análisis y mejora de procesos pueda dar como resultado final unos procesos de negocio encorsetados, inflexibles, poco realistas, sobre-controlados, asfixiantes, burocráticos en el peor de los sentidos.

No niego que, con frecuencia, el discurso de la gestión por procesos tienda a ser aburrido, poco atractivo y, en apariencia (solo en apariencia recalco) desconectado de las necesidades del acelerado mundo actual. De hecho, creo que habría que revisar en profundidad ese discurso general, precisamente para hacerlo más ligero, más moderno, más atractivo.

No niego que los propios trabajos de identificación, descubrimiento, modelado y análisis de procesos, a veces se cubran de una capa metodológica que se pueda percibir como excesiva y aburrida.

Todo ellos son razones que parecen confirmar esa identificación de la gestión de procesos como algo burocrático.

Y sin embargo...


Luchando contra la percepción equivocada


Y sin embargo, esa percepción es injusta y es equivocada.

Asociar la gestión de procesos de negocio con burocracia es un error.

Seguramente se puedan aportar más argumentos, pero me voy a centrar en dos.

En primer lugar, simplemente, quiero destacar algo que creo que ya he mencionado en este blog a propósito de algún otro tema diferente: 


No se debe identificar una disciplina con las malas prácticas a ella asociada.


Es un vicio muy común, especialmente cuando se quiere presentar en sociedad una nueva tecnología o una nueva metodología, descalificar a la que la tecnología o metodología precedente, asociando esa metodología o esa tecnología con malas prácticas en su aplicación, probablemente unas malas prácticas y unos fracasos reales, pero solo eso, malas prácticas, que no afectan a la esencia de la metodología. Es algo que me encuentro, por ejemplo, de forma recurrente cuando, en materia de dirección de proyectos, se vende de forma poco rigurosa el enfoque ágil frente al predictivo.

En ese sentido, que históricamente se hayan realizado iniciativas de mejora de procesos que hayan tenido como resultado unas procesos burocráticos e ineficientes, no es esencial en la práctica de la gestión de procesos, sino sólo una mala aplicación de la disciplina, una mala aplicación sobre la que debemos estar prevenidos, por supuesto, pero que no la caracteriza y, sobre todo, no la descalifica.

El otro argumento tiene que ver con la cierta identificación de la mejora de procesos únicamente con el control y la búsqueda ciega de la eficiencia. Y no es así.

En la mejora de un proceso se pueden buscar muchas cosas. Es muy común, es cierto, y además es bueno, la búsqueda de la eficiencia. Pero también se puede buscar la rapidez, o la comodidad, o la mejora de la experiencia de cliente. Esa diversidad de objetivos, en ocasiones contradictorios y sometidos a decisión, se ha expresado ya hace años, por ejemplo, en el denominado 'cuadrilátero del diablo' que, en el fondo, lo que nos hace ver es que en una iniciativa de mejora de procesos, existen objetivos con frecuencia contrapuestos y tenemos que reflexionar sobre qué objetivos realmente buscamos para elegir, o al menos priorizar, las acciones.

Mensaje: en una mejora de procesos no siempre buscamos los mismos objetivos.

Si pensamos que la mejora de un proceso sólo busca el control, tenderemos a identificarla con burocracia.

Pero si pensamos que la mejora de un proceso lo que busca es la agilidad y la experiencia de cliente, seguramente pensamos de forma distinta.

Y esa forma distinta es la adecuada, la útil, la real.


Procesos y estrategia


Y no olvidemos que un cambio de procesos, como cualquier transformación empresarial, como la propia transformación digital, debe estar siempre orientado a los resultados de negocio y guiada y alineada con la estrategia de la compañía.

Es la estrategia la que nos debe iluminar sobre dónde ponemos el foco a la hora de mejorar los procesos.

Y lo más probable hoy en día es que esa estrategia no nos dicte un mayor control, una mayor burocracia, sino, seguramente, agilidad, flexibilidad y experiencia de cliente.


Conclusión: una transformación consciente


Huyamos de tópicos y huyamos de esa visión de la mejora de procesos como algo 'viejuno' y burocrático. 

Esa es una percepción equivocada. Sin duda.

Seamos realistas. Seamos rigurosos. Seamos conocedores de, y tengamos clara nuestra estrategia de compañía y con base en ella tomemos, de forma consciente e informada, las decisiones más oportunas sobre nuestros procesos 


lunes, 4 de diciembre de 2023

Sobre el sentido de especular ahora sobre una roboética

Todo lo que tiene que ver con los robots tiende a sonar un poco a ciencia ficción, no tanto porque no existan robots hoy en día, que existen, y muchos, sino porque en medios 'populares' el foco tiende a ponerse, precisamente, en la visión más futurista, sea o no esa visión medianamente realista.

Y claro, si ahora hablamos de roboética, de una ética dedicada específicamente a los robots, parece normal pensar que, quizá, estemos también fantaseando un poco (o un mucho), que realmente no tenga mucho sentido, al menos a estas alturas, plantearse una ética cuyo foco sean los robots, especialmente si en esa ética nos planteamos cuestiones como si los robots tienen alguna forma de derechos, o si debemos tener para con ellos alguna forma de consideración de tipo moral.

¿Tienes, pues, sentido, plantearse hoy, ahora, una ética de los robots?

En el libro 'Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond' de David Gunkel, me encuentro algunos razonamientos al respecto que me gustaría compartir.


Una opinión de Luciano Floridi



Algunas de las especulaciones sobre roboética (aunque hay que decir que no todas ni mucho menos), dependen de que realmente se produzcan avances técnicos que pueda conducir a robots con más autonomía y, sobre todo, 'sintientes' y, quién sabe si 'conscientes'.

En la medida que algunas de esas posibilidades sean solo eso, posibilidades, estamos de alguna forma haciendo puras especulaciones.

Y contra ese tipo de especulaciones nos alerta Luciano Floridi cuando dice:


It may be fun to speculate about such questions, but it is also distracting and irresponsible given the pressing issues we have at hand.


Claramente, Floridi se posiciona en contra de esta especie de moral especulativa que, al menos parcialmente, afecta a la roboética.

Sin embargo, destacaría que lo hace fundamentalmente, al menos eso me parece a mi, por una consideración práctica y de priorización: tenemos problemas éticos no resueltos, de impacto inmediato y, por tanto, mucho más urgentes.

Se esté de acuerdo con Floridi o no, parece una opinión sensata.


Una opinión de John-Stewart Gordon



John-Stewart Gordon
En el mismo libro, David Gunkel trae a colación la argumentación de John-Stewart Gordon sobre el papel de la especulación en la filosofía moral, una opinión expresada, por ejemplo, en "What do we owe to inteligent robots?". La argumentación de Gordon, va en un doble sentido, como expresa él mismo:


First, skepticism regarding the possibility of highly advanced intelligent robots seems quite premature given the great technological advances and future prospects in robotics, AI and computer science. Second, it is unwise and un-philosophical to abstain from discussing important moral and socio-political issues the emergence of which cannot be fully ruled out in advance.


Es decir, por un lado, y en un aspecto más práctico, considera probable que la propia tecnología hiciese real que eso que ahora mismo pueda parecer especulativo y, por otro, y desde un punto de vista más teórico, considera un deber de la filosofía moral el tomar en consideración fenómenos sobre los que, incluso, no haya seguridad de que se produzcan.


Una reflexión propia


La opinión de Floridi, como he expresado, me parece lógica y sensata.

Y, sin embargo, creo que eso no anula la necesidad, no sé si urgencia, pero sí necesidad, y desde luego el sentido, de una roboética y ahí me acerco un poco más a Gordon, especialmente en su primer argumento.

Planteando la cuestión
Hace algo más de un mes, y en una charla que pronuncié en IE Universitiy, en el evento conjunto que mantuvimos OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), organización a la que pertenezco, con IE Robotics & AI Club, IE School of Humanities y Center for the Governance of Change, una charla que titulé 'From AI Ethics to Roboethics' abordé precisamente brevemente esta problemática.

Ahí, en apenas un minuto o menos expresé rápidamente mi opinión. 

Por un lado, mi apuesta, que no es solo mía, de que la robotización se está produciendo ya y va a continuar probablemente de forma acelerada, con dispositivos cada vez más inteligentes y cada vez más relacionales. 

Y, por otro, que esas capacidades relacionales de los robots, tienen bastantes implicaciones éticas, algunas de las cuales tienen que ver con las emociones humanas y otras con el sentido de la propia naturaleza humana.

Y eso me parece suficiente razón para dedicar tiempo a la roboética.


Conclusión


Probablemente, en efecto, no lo niego, sea menos urgente que otros desafíos que tenemos encima de la mesa. Puede que bastante menos urgente. Probablemente, en efecto, debamos resolver otros muchos temas antes o con más prioridad. Seguramente bastante más prioridad.

Pero mejor que no abandonemos este campo de análisis.

Tiene mucho que enseñarnos, incluso sobre nosotros mismos como seres humanos, y a lo mejor, a lo mejor, se convierte en urgente en menos tiempo de lo que pensamos...