viernes, 4 de febrero de 2022

La empresa invencible de Osterwalder, Pigneur et al

'The invincible company' es la cuarta obra del equipo de Strategyzer liderado por Alexander Osterwalder e Yves Pigneur, los creadores, entre otras cosas, del famosísimo lienzo del modelo de negocio ('business model canvas').

En sus trabajos anteriores, primero se centraron en definir el lienzo del modelo de negocio como forma de identificar, trabajar con y generar modelos de negocio. En su segundo paso se concentraron en una parte del modelo de negocio, la proposición de valor. La tercera ponía el foco en la comprobación de hipótesis del modelo de negocio, algo que enlaza muy bien con métodos de innovación como Desarrollo de Clientes y Lean Startup.

En esta ocasión, vuelve a coger una perspectiva algo más amplia que en su segundo y tercer libro para trabajar en el campo de la innovación en modelo de negocio, defendiendo los autores que la verdadera innovación se produce a nivel de modelo de negocio, y con dos ideas fuerza que, en mi opinión, son clave en el desarrollo del libro:
  • Se debe gestionar de manera diferente el modelo o modelos de negocio correspondiente a la exploración (búsqueda de modelos radicalmente innovadores) y explotación (innovación, digamos, 'moderada' sobre el negocio ya existente).

  • Una muy buena forma de innovar en modelos de negocio, es identificar patrones de modelos de negocio ya existentes y reutilizarlos, adaptarlos y recombinarlos hasta llegar al modelo de negocio que más nos convenga.
A esto, añadir, como factor novedoso en el discurso de los autores, el aspecto cultural.

Aunque, como sabrán todos los que hayan leído anteriores obras de estos autores, su forma de presentar el material es poco convencional, con mucho gráfico, poco texto y no demasiada estructura narrativa, el libro se organiza, aproximadamente, en cinco grandes capítulos:
  • '1. Tool: ' en que establece la muy fundamental diferenciación entre exploración y la explotación a la hora de gestionar el porfolio de productos y servicios, incluso de modelos de negocio, de una compañía. Se trata, en mi opinión, de una forma original y poderosa, eso sí, de presentar el ya conocido concepto de la organización ambidiestra que gestiona de manera diferente su 'core business' por un lado, y la innovación, la innovación profunda, por otro. Tras alguna idea previa, se explica la herramienta denominada 'Mapa de porfolio' explicando, por separado, las trayectorias y acciones asociadas tanto a la exploración como a la explotación.

  • '2. Manage: ' Primero apuestan por establecer lo que denominan una guía que debe abarcar la identidad corporativa que de alguna forma reúne la imagen de marca, la dirección estratégica y la cultura organizativa. A continuación y de una forma bastante detallada, explican la gestión propuesta para el porfolio tanto de exploración como de explotación incluyendo acciones y métricas y aprovechando, en el inicio, para poner en contexto todo el uso de la herramienta del mapa de porfolio con otras herramientas de los mismos autores como el lienzo del modelo de negocio. Finalizan introduciendo la muy importante idea de los patrones de modelo de negocio que usarán ampliamente en lo que sigue.

  • '3. Invent Pattern Library: ' Una pormenorizada revisión de patrones de modelo de negocio aplicables al porfolio de exploración, es decir, cuando estamos realmente innovando en profundidad. Por cada patrón de modelo de negocio, que se 'mapea' en el lienzo de modelo de negocio, se describe el patrón y luego se aportan normalmente entre uno y tres ejemplos de empresas reales que han aplicado ese patrón.

  • '4. Improve Pattern Library' De manera parecida al capítulo anterior, se exponen patrones para el desplazamiento ('shift') de un modelo de negocio actual a otro modelo de negocio objetivo, pensando ahora más en el cuadrante de explotación.

  • '5. Culture' Aborda el elemento cultural presentando una nueva herramienta, el mapa de cultura, que realmente no es de los autores del libro, sino de Dave Gray, y que identifica tres elementos: (1) resultados esperados (2) comportamientos que permitirán alcanzar esos resultados y (3) elementos que facilitan o bloquean esos comportamientos. Y, con base en esa herramienta, se dan ideas sobre cómo diseñar una cultura, tanto de exploración como de explotación.

'The invincible company' es heredera del ya clásico estilo strategyzer, con su formato apaisado, la abundancia de gráficos y herramientas simples, las frases rotundas y la ausencia de discurso tradicional.

A mi modo de ver, a nivel de puro contenido, no aporta demasiadas ideas nuevas respecto a la literatura existente sobre innovación, e innovación en concreto en modelo de negocio. Lo que sí cambia, y lo hace de forma brillante, es la forma de transmitir el mensaje de manera tan clara y directa, su orientación a la acción y a herramientas simples, y su claridad de visión y atractivo en la exposición.

Un libro llamado a convertirse, como sus obras anteriores, y especialmente la primera, la de generación de modelos de negocio, en un referente, en este caso en materia de innovación en modelo de negocio.

Alex Osterwalder

(Fuente: Ficha de autor en el libro 'Generación de modelos de negocio')

Alexander Osterwalder
El Dr. Osterwalder es un autor, orador y asesor sobre innovación en modelos de negocio. Su método práctico para el diseño de modelos de negocio innovadores, que desarrolló en compañía del Dr. Yves Pigneur, es utilizado en todo el mundo por empresas de diferentes sectores como 3M, Ericsson, Capgemini, Deloitte, Telenor, etc. Antes, Alexander ayudó a crear y vender una empresa de consultoría estratégica, participó en el desarrollo de una organización no lucrativa internacional con base en Tailandia que lucha contra el sida y la malaria e investigó en la Universidad de Lausana (Suiza).

Puedes saber más del autor visitando su página oficial, consultando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @AlexOsterwalder

Yves Pigneur

(Fuente: Ficha de autor en el libro 'Generación de modelos de negocio')

Yves Pigneur
El Dr. Pigneur es profesor de sistemas de información de gestión en la Universidad de Lausana desde 1984 y ha trabajado como profesor invitado en la Georgia State University de Atlanta y la Universidad of Britsh Columbia en Vancouver. También colaboró como investigador principal en muchos proyectos de investigación relacionados con el diseño de sistemas de información, ingeniería de requisitos, gestión de tecnologías de la información, innovación y comercio electrónico.

Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @ypigneur.

Ficha técnica:

AUTOR: Alex Osterwalder, Yves Pigneur, Fred Etiemble y Alan Smith
EDITORIAL: Wiley
AÑO: 2020 
ISBN: 978-1119523963
PAGINAS: 400


miércoles, 2 de febrero de 2022

Ideas y buenas prácticas para evitar el sesgo algorítmico

Continuo con este post un poco la línea expositiva que inicié en el anterior, 'Seis criterios de imparcialidad algorítmica... y alguna reserva'. Se trata de conocer un poco más la temática de los sesgos en los algoritmos y, sobre todo, explorar qué se puede hacer.

Para ello, sigo los argumentos que se aportan en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, un poco sazonados con mis propias ideas pero, especialmente en este caso, es un artículo bajo en sal, con lo que quiero decir que ese sazonado es muy leve y que básicamente me limito a mostrar las ideas que los autores citados exponen en el libro. 


El sesgo algorítmico


Sólo recordar, aunque entiendo que la generalidad de los lectores de este blog lo conocen, que el sesgo algorítmico son situaciones que se producen en los algoritmos de machine learning que llevan a que de alguna forma beneficien o, sobre todo, perjudiquen a un colectivo o persona de una manera que consideramos parcial o injusta.

¿Qué se puede hacer al respecto?

Bueno, aunque personalmente, desearía, y creo posible, ir a acciones y prácticas más concretas, Russell y Norvig recogen un buen racimo de líneas de actuación.


Algunas ideas


En primer lugar nos aportan tres ideas.

La primera tiene que ver con entender y gestionar el alcance de los datos que utilizamos para el entrenamiento, algo que, aunque a bote pronto no lo parezca, tiene mucho que ver con la diversidad (en el sentido de variedad de géneros, edades, razas, culturas,...) del equipo de científicos de datos. 

Antes de pasar a los algoritmos nos ponen un ejemplo muy fácil de entender que no es del campo de la Inteligencia Artificial sino de la usabilidad de las interfaces de usuario. Nos dicen que es muy difícil valorar la usabilidad de una interfaz de usuario para daltónicos si nadie en el equipo de desarrollo o pruebas tiene ese defecto visual... porque no van a poder comprobar el impacto en ese colectivo. Es más, probablemente ni se les ocurra siquiera pensar en ese impacto, ni diseñar la interfaz para que sea válida para ese colectivo. Es por eso que la diversidad de los equipos facilita, aunque creo que no garantiza, la no marginación de minorías o ciertos colectivos.

La segunda idea que ponen sobre la mesa es trabajar con los datos para eliminar los sesgos de entrada. Así, nos proponen algún ejemplo: si estamos trabajando con un algoritmo sobre justicia, eliminar como datos de entrenamientos los casos juzgados por algún juez que se sepa por anticipado que muestra juicios sesgados contra algún colectivo. También hablan, aunque de esto yo no estoy tan seguro de su bondad, de reforzar los datos de entrenamiento correspondientes a minorías (yo diría que, más que reforzar, lo que hay es que estudiarlo y garantizar que esas minorías están suficiente y adecuadamente representadas en los datos de entrenamiento).

Y la tercera idea es idear algoritmos más resistentes a los sesgos. Nos hablan de que la idea es como tener dos algoritmos: uno que, digamos, es el principal y que, por desgracia, puede mostrar algún sesgo, pero luego tener otro algoritmo complementario que elimine el sesgo en los resultados del primero. Me gustaría conocer más el detalle de cómo funcionan ese segundo algoritmo. Lo que sí creo es que ya hay herramientas de AutoML (Auto Machine Learning) que, aunque con supervisión humana, ya alertan de eventuales sesgos.


Un cuasi-decálogo de buenas prácticas


Tras esas ideas, unas líneas más abajo los autores recogen un 'cuasi-decálogo' de buenas prácticas sin muchas explicaciones. Hablo de cuasi-decálogo, simplemente, porque son nueve recomendaciones, en lugar de diez.

Son éstas:

  • Asegurarse de que los ingenieros de software hablan con científicos sociales y otros expertos del dominio para asegurar que entienden el contexto y perspectivas y diseñan algoritmos imparciales desde el mismo inicio.

  • Crear un entorno en que se busque que los equipos de ingenieros de software sean diversos y reflejen la composición real de la sociedad.

  • Definir a qué grupos el algoritmo tiene que dar adecuado soporte: hablantes de diferentes idiomas, grupos diferentes de edad, diferentes capacidades, etc

  • Optimizar una función objetivo que incorpore la imparcialidad

  • Examinar los datos de entrenamiento para detectar prejuicios o correlaciones entre atributos protegidos y otros atributos.

  • Entender cómo se realiza la anotación de datos de entrenamiento por humanos (se trata del etiquetado para aprendizaje supervisado), establecer objetivos de diseño para ese etiquetado y verificar que se cumplen.

  • No limitarse a métricas generales del sistema o algoritmo, sino obtener también métricas para subgrupos que pudieran ser objeto de sesgo.

  • Incorporar a las pruebas de sistema, casos de prueba que reflejen la experiencia de grupos minoritarios

  • Establecer un bucle de realimentación de manera que, si se producen sesgos, exista una forma de gestionarlos.


Parecen todas ellas muy buenas ideas, aunque es cierto que luego hay que operativizarlas lo cual, en algunas de las recomendaciones  parece fácil pero en otras quizá algo menos.


Conclusión


No es que haya muchas conclusiones que extraer salvo que si, el riesgo, y el problema, de los sesgos existe, pero están ya identificadas bastantes vías de actuación para, si no garantizar al cien por cien que se eliminan, sí disminuir mucho esa probabilidad de sesgo, y la magnitud del sesgo, en el caso de que se produzca.

Es esperanzador.


viernes, 28 de enero de 2022

Seis criterios de imparcialidad algorítmica... y alguna reserva

Es conocido que uno de los temas más citados cuando se habla de problemáticas éticas ligadas a la inteligencia artificial y el machine learning es el de los sesgos. 

En cierto sentido, y como imagen especular, con la problemática de los sesgos ('bias') se relaciona la aspiración a la imparcialidad ('fairness').

Vamos a hablar un poco de ellos.


Sesgo e imparcialidad


El sesgo ('bias') se produce, en el entorno de la inteligencia artificial, cuando la aplicación de un algoritmo a un ámbito concreto produce unos resultados que, de manera global, no trata a todos los colectivos por igual sino que favorece y, sobre todo, perjudica a alguno de ellos. Las colectivos 'víctimas' suelen ser los habituales, no solo en la inteligencia artificial sino en la sociedad: mujeres, personas de raza no blanca, personas mayores, etc.

Como decía, un poco a la idea del sesgo, como defecto, se opone la idea de la imparcialidad ('fairness') como aspiración, es decir, el tratar a todos los colectivos e individuos de una manera justa y, digamos, con igualdad de oportunidades.

Hago un breve paréntesis para hacer notar al lector cómo, por cada término, hasta ahora sesgo ('bias') e imparcialidad ('fairness'), estoy incluyendo su denominación en inglés. El motivo es que, al menos en mi percepción, los términos en inglés tienen algún matiz que no estoy seguro de que quede reflejado claramente en su traducción al castellano. Sobre todo, en el caso de 'fairness', hay varias traducciones posibles. Podría traducirlo, por ejemplo, como 'justicia' pero creo que, aparte de que colisionaría con la traducción de 'justice', también utilizada en el ámbito de la ética y la normativa, no sé si es la mejor forma de entender lo que 'fairness' significa. En cualquier caso, al anotar el término en inglés, dejo al lector suficientemente avezado, la libertad de pensar en castellano en los términos que considere más convenientes.  

Para lo que sigue, y sobre todo para lo que tengo en mi mente y que insinuaré al final del post, me parece más conveniente hablar de imparcialidad como traducción de 'fairness'.


Los seis criterios de imparcialidad


Bueno, el caso es que, la muy loable búsqueda de la imparcialidad ('fairness') en los algoritmos, o si se prefiere, la eliminación de los sesgos ('bias'), es un objetivo más elusivo de lo que se pudiera pensar. 

En este post, y alguno que seguirá, voy a reflejar y comentar alguna idea que se aporta ya hacia el final del libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig que tantos otros artículos de este blog ha inspirado ya.

Bueno, el caso es que estos autores, en el penúltimo capítulo, dedicado a la ética de la inteligencia artificial, enumeran seis criterios, seis requisitos o seis formas de entender qué es la imparcialidad o cómo debería ser un algoritmo para ser considerado imparcial.

Son los siguientes:


  • Imparcialidad individual ('individual fairness'): requisito de que cada individuo sea tratado de forma similar a otros individuos con independencia de a qué clase pertenezca. Por clase, entiéndase cosas como las que apuntábamos antes: género, raza, edad,...

  • Imparcialidad de grupo ('group fairness'): requisito de que dos clases sean tratadas de forma similar lo cual sea demostrable estadísticamente.

  • Imparcialidad a través de la inconsciencia ('fairness through unawareness'): requisito de que si eliminamos atributos referentes a aspectos sensibles como el género o la raza de un conjunto de datos ('dataset'), el algoritmo no pueda discriminar con base en esos atributos. Para los que no conozcan mucho de machine learning este requisito puede parecer absurdo o evidente: si eliminamos del conjunto de datos el género o la raza ¿Cómo va a el algoritmo a discriminar con base en esos atributos? Bueno, el caso es que en muchas ocasiones sí que puede. ¿Por qué? Pues porque existen otras muchas variables, variables 'proxy', que dan 'pistas' muy fiables, a veces seguras, del valor de esos atributos que pensábamos habíamos eliminado del conjunto de datos.

  • Igual resultado ('equal outcome'): requisito de que cada clase demográfica obtenga los mismos resultados, que es lo que se conoce también como paridad demográfica ('demographic parity'). Así, los autores aportan el ejemplo de los préstamos bancarios explicando que la paridad demográfica garantizaría que se concede el mismo volumen de préstamos a hombres y mujeres. También destacan que esta paridad demográfica, no asegura que se cumpla otro de los criterios, como es el de la imparcialidad individual.

  • Igual oportunidad ('equal opportunity'): requisito, también denominado equilibro ('balance'), que significa, llevado al ejemplo del préstamo, que si un individuo tiene capacidad de devolver el préstamo debe serle concedido independientemente de que se trate, digamos, de hombre o mujer. Los autores señalan, con acierto, que cumplir este criterio nos puede llevar a no cumplir el de igual resultado si, inherentemente, hay diferencias en la capacidad para devolver el préstamo entre hombres y mujeres.

  • Igual impacto ('equal impact'): parecido al anterior pero yendo un poco más allá, pues pide que la utilidad ('utility') esperada ante una situación como la del préstamo sea igual independientemente de la clase a la que se pertenezca, es decir, se valoran tanto los beneficios de una predicción verdadera, como los perjuicios de una predicción falsa.  


Como se puede observar, se trata de criterios que, cada uno por separado puede ser bastante razonable y que, seguramente, tenderíamos a dar por buenos y deseables. Y sin embargo, en alguna ocasión pueden ser al menos parcialmente contradictorios, como se ha apuntado.

Y, por otro lado, queda un poco pendiente la 'operacionalización' del criterio, cómo se trasladan al caso de algoritmos reales y concretos.


... y alguna reserva


Aunque, si no entramos en profundidades, el objetivo de eliminar sesgos y de alcanzar la imparcialidad, seguramente lo compartamos todos, lo cierto es que, en el detalle creo que sí puede haber discrepancias.

Al menos yo no me siento cómodo con algunas propuestas o insinuaciones, en lo algorítmico e incluso en lo no algorítmico.

A veces tengo la impresión de ser algo divergente en estos asuntos de ética de la inteligencia artificial, de tener opiniones algo distintas a las que se observan en los discursos dominantes.

En concreto, en el tema de los sesgos y la imparcialidad, pero no sólo en él, tengo reservas con respecto a ese discurso dominante y alguna idea que considero no bien recogida.

No obstante, de momento me las voy a guardar. Quiero pensármelas mejor e investigar algunos temas.

Cuando haya despejado dudas y tenga mis propuestas más claras, seguramente escriba algún post al respecto, pero de momento lo dejo en ese cierto suspense, en esa mera insinuación de mis reservas con las ideas dominantes, o que me parecen dominantes, sobre sesgo e imparcialidad.


miércoles, 26 de enero de 2022

Consciencia de las máquinas: el naturalismo biológico y la necesidad de prudencia

Ya hemos tratado en más de una ocasión en este blog el tema de la consciencia en las máquinas y más concretamente en los robots. No puedo negar que me resulta un tema muy atractivo, tanto el entendimiento del fenómeno de la consciencia en los humanos como la posibilidad, o no, y en caso afirmativo de qué manera, conseguirla, esa consciencia en robots.

Lo cierto es que, a día de hoy, y como ya he comentado en artículos pasados, ni entendemos la consciencia humana, ni somos capaces de conseguirla en robots y ni siquiera está muy claro que sea deseable alcanzar esa consciencia en los robots, caso de que fuese posible.

Eso me va a llevar a pedir, o aconsejar al menos, prudencia.


La visión de Damasio sobre la consciencia


Ya comentamos brevemente hace unas semanas la visión de Antonio Damasio sobre la consciencia, una visión que resumí y con la que especulé en los artículos titulados 'Derivadas del pensamiento de Damasio (I): Consciencia de los robots y la hipótesis de la sensorización masiva', 'Derivadas del pensamiento de Damasio (II): La dudosa consciencia del software y los límites del transhumanismo' y 'Consciencia de los robots: Antonio Damasio versus Jun Tani'.

Lo que me interesa recordar aquí es, simplemente, que para Damasio, la aparición de la consciencia está indisolublemente unida a la existencia de un cuerpo, ya que es la creación de imágenes del propio cuerpo lo que posibilita la aparición de esa consciencia.


El naturalismo biológico de John Searle


Leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig encuentro una muy breve referencia al llamado naturalismo biológico del filósofo John R. Searle y, en concreto, a lo que este pensador expresaba en un artículo ya antiguo, el titulado 'Minds, brains and programs' y publicado en 1980 en la revista 'The behavioral and brain sciences'.

Aunque tengo dicho artículo justo delante de mí en el momento de escribir este post, confieso que aún no lo he leído, por lo que, para lo que sigue, 'me fío' de lo que acerca del mismo resumen Russell y Norvig, Si su posterior lectura, que espero hacer en breve, me hiciese cambiar de opinión respecto a lo que a continuación voy a decir, cosa que dudo, lo haría constar como una modificación de este post o, quizá, como un nuevo post.

De todas formas, y fiándome, como digo, de lo que cuentan Russell y Norvig, lo que entiendo es que el naturalismo biológico de Searle entiende que la consciencia está unida a la realidad física, en concreto al sistema nervioso y los fenómenos neurobiológicos, aunque de alguna forma los trasciende y se sitúa en un plano superior o diferente. o dicho de otra forma, más parecida a como lo expresan Russell y Norvig, la consciencia es una característica emergente de alto nivel pero causada los fenómenos fisiológicos que se producen en las neuronas.

De alguna forma, pues, la consciencia, dicho de una forma algo simplista, necesita de las neuronas y su existencia está de alguna manera ligada a ellas. Sin neuronas, no hay consciencia. Sin embargo, si esa consciencia de alguna forma "está en las neuronas", no lo está por ejemplo, y como dicen Russel y Norvig, en un transistor de silicio.

Parece que esta forma de pensar, implica que un intelectual como Searle considera imposible la aparición de consciencia en un robot...al menos un robot fabricado con metal, plástico y silicio.

Según leo, esta argumentación de Searle ha sido discutida y eventualmente refutada aunque sin alcanzarse consenso ni a favor ni en contra. En concreto, Russell y Norvig aportan el caso de un relato de ciencia-ficción 'They are made out of meat' de Terry Bisson, en que unos robots alienígenas que llegan a la Tierra se sorprenden de que unos seres hecho de carne puedan pensar. La misma línea de razonamiento de Searle, en su caso, les llevaría  deducir que sólo pueden ser conscientes seres con mentes hechas de silicio, pongamos por caso.


La necesidad de prudencia


Aunque me resulta interesante conocer la teoría de Searle y sus refutaciones, en el fondo lo que pretendía con este post es llegar a esta llamada final a la prudencia. 

Y es por eso que no creo que la lectura detallada del artículo de Searle me haga cambiar de opinión respecto a lo que sigue.

El caso es que no deja de sorprenderme, una y otra vez, tanto en publicaciones y debates ligeros (en blogs, revistas, webinars, etc) como incluso en autores sesudos, como puede ser el caso de Searle, la seguridad, la suficiencia diría, con que se afirman cosas como que no se puede conseguir la consciencia en los robots o que la inteligencia artificial general es imposible y que la singularidad nunca llegará. O justo lo contrario, la seguridad y suficiencia con que otros afirman, y como dice Kurweil, que la singularidad está cerca, que llegaremos a conseguir la super-inteligencia y también la consciencia de los robots.

Creo que hay que ser más prudentes.

Sencillamente, no lo sabemos. 

Podemos opinar, opinar incluso con ciertos datos, ciertas argumentaciones racionales, ciertos síntomas. Pero saberlo, lo que se dice saberlo, no lo sabemos. Ni nuestro conocimiento del cerebro humano es suficientemente profundo ni nuestro desarrollo de la inteligencia artificial y la robótica suficientemente avanzados.

Así que no sabemos si es posible o no conseguir una consciencia artificial y no sabemos si se puede alcanzar o no la singularidad.

Podemos tener opiniones, podemos tener convencimientos, incluso íntimos convencimientos, con base en conocimientos, en intuiciones o en fe religiosa. Pero por fundadas y razonadas que éstas opiniones y convencimientos puedan ser, sólo son eso, opiniones.

Seamos, pues, prudentes, casi diría modestos, en nuestras afirmaciones. 


martes, 25 de enero de 2022

La convivencia de humanos y algoritmos según Idoia Salazar y Richard Benjamins

'El algoritmo y yo', el segundo que publican mano a mano Idoia Salazar y Richard Benjamins, trata de acercar el impacto en nuestro día a día de la inteligencia artificial y dar unas pautas para una convivencia saludable, ética y enriquecedora con esta tecnología.

El libro se abre con dos notas introductorias. En primer lugar la titulada 'Qué esperar de la guía de convivencia entre seres humanos y artificiales' en que nos hablan de tres ejes, conocer, mejorar y educar algoritmo y una breve 'Nota de la máquina' que es una invitación a adentrarnos en el libro.

A continuación, el contenido de la obra se estructura en siete capítulos, siete áreas temáticas representadas cada una por un día de la semana, como una forma de metáfora de esa convivencia diaria con la inteligencia artificial.
  • 'Lunes. Un compañero artificial:' Un capítulo centrado en los agentes virtuales y su interacción con las personas. Se habla de esos asistentes en el ámbito doméstico y cómo llegan a conocernos mejor que nosotros mismos, y también se habla de su empleo a nivel social y el impacto en la democracia, uso en el mundo laboral con un apunte específico para el periodismo y, finalmente, se habla del caso de Replika y la posibilidad de reproducir una personalidad de alguien ya fallecido. Por el camino, se incluye un aparte para hablar de la carta de derechos digitales en su sección XXV y se incluyen las opiniones de Daniel Innerarity hablando de inteligencia artificial y democracia, Lasse Rohuiainen quien habla de la inteligencia artificial para la empresa, Miguel Valle del olmo quien hace una visión futurista (2024) sobre todo pensando en servicios públicos y Alfredo Urdaci y David Corral que comentan del caso del periodismo y los medios de comunicación respectivamente.

  • 'Martes. Enfermarse ya no es tan impredecible:' Como el título anuncia, se habla de la inteligencia artificial en el sector salud, comenzando por mostrar cómo puede ayuar, por ejemplo, en el diagnóstico, actuando como 'médico virtual' o para el rastreo de contactos como en el caso del COVID. y luego se tratan algunas temáticas como la optimización del sistema sanitario, el caso de las enfermedades raras o la prevención del suicidio. En este capítulo, se muestra la sección XXIII de la carta de derechos digitales que habla de la protección de la salud en el entorno digital y se aportan las opiniones de Víctor Maojo que dibuja unas líneas de futuro de la medicina, Carolina Aguilar quien habla de inteligencia artificial y neuroelectrónica, Javier Mendoza que ejemplifica aplicaciones en el caso del aparato digestivo, Pedro José Ortega Barrado hablando del caso de la atrofia muscular espinal (MLE) y Sandra Timón que nos habla de usos para puestos de trabajo inclusivos.

  • 'Miércoles. Profesores artificialmente perfectos:' Aborda la educación y formación. Antes de entrar en temas más relacionados con las máquinas, explica cómo debemos aprender los humanos en el nuevo contexto, con foco en habilidades como el pensamiento crítico, la capacidad de análisis y la resolución de problemas. Y luego ya habla, brevemente, del aprendizaje de los algoritmos para a continuación saltar al uso de la inteligencia artificial como 'profesor' incluyendo el caso más delicado de personas con barreras físicas o intelectuales. En este capítulo se trae a colación la sección XVII de la carta de derechos digitales sobre el derecho a la educación digital y cuenta con las aportaciones de José Ignacio Latorre quien habla de una inteligencia compartida, Rosa Visiedo qiuen diserta sobre la Universidad digital y de la formación en competencias digitales, Pablo Rivas que identifica dos direcciones (por un lado el uso para la mejora de la educación propiamente dicha y por otro la reducción de carga administrativa a ella asociada), Ricardo Palomo quien hace varias consideraciones sobre esos profesores artificialmente perfectos que dan título al capítulo, Jassim Haji que cuenta el caso específico de Baréin y Carlos López Ariztegui quien hace unas consideraciones ligadas sobre todo a la enseñanza de posgrado.

  • 'Jueves. Trabajando en los retos pendientes:' Agrupa una serie de temas diversos que tienen que ver con los robots pero sobre todo con la gobernanza y con la regulación. Comienza hablando de temas de responsabilidad ('accountability') especialmente ligadas a los robots, se uso en ciberguerra y de la regulación de la inteligencia artificial. En esta ocasión, se incluyen las aportaciones de Teresa Rodríguez de las Heras, hablando de responsabilidad con un enfoque legal, Ángel Gómez de Ágreda, que habla brevemente de ciberseguridad y ciberdefensa, Emmanuel Goffi reflexionando sobre la gobernanza de la inteligencia artificial, Gonzalo Génova quien analiza las famosas tres leyes de la robótica de Asimov, Lorenzo Cotino, que aporta la visión del Derecho, Claudio Feijoo quien se centra en el caso de China, Raquel de Jorge aportando la perspectiva de la política internacional y Manuel Baena centrado en la diplomacia.

  • 'Viernes. De comprar por el futuro:' Se muestra ahora la aplicación al mundo comercial como la personalización de productos y servicios, la mejora de la experiencia de cliente y se tocan también los aspectos de responsabilidad tanto en consumidores como en empresas. En este capítulo se muestran las secciones de la carta de Derechos Digitales dedicadas a protección de datos y el derecho a no ser 'perfilado' y se completa con las opiniones de Luis Martín quien habla del uso de la Inteligencia Artificial en marketing estratégico, Tamer Davut que reflexiona sobre la auditoría de la inteligencia artificial y el rol del auditor, Ricardo Martínez que explica las preocupaciones habituales de los consumidores en relación con la inteligencia artificial y Victoria Camps quien se centra en la idea de libertad en un entorno de compra digital.

  • 'Sábado. Viajando sin límites físicos:' Hablamos ahora de viajes, turismo y entornos urbanos tocando temas como los robots que atienden en hoteles, el tema del idioma español en los sistemas de procesamiento de lenguaje natural o cambios en el transporte y se acaba elucubrando sobre visiones futuristas como los viajes espaciales o viajes en el tiempo. En este caso, se incluyen colaboraciones de Ramón Blecua, hablando de resolución de conflictos a nivel internacional, José Luis Prado que analiza el encaje de tecnologías en el entorno urbano, Daniel Sarasa que también se centra en las ciudades y el impacto en ellas de la inteligencia artificial, Miguel Ángel Blanco que explica el efecto que puede tener la computación cuántica en la inteligencia artificial y José Ignacio Latorre que aporta una nueva perspectiva al tema de la inteligencia compartida.

  • 'Domingo. Diversión simbiótica entre seres humanos y artificiales:' Finalizamos con el mundo del ocio hablando de la inteligencia artificial en videojuegos o en el deporte, en el arte, en la televisión y acometiendo el espinoso tema de los robots sexuales. En esta ocasión las opiniones corresponden a Albert Osuna que se centra en videojuegos, Esteban Granero con el uso de los datos en el deporte y en concreto en el fútbol, Eduardo Valdés, también en el mundo del deporte hablando de optimización del rendimiento deportivo pero también de los ingresos, Adrián Vallés que aporta la visión del deportista de élite, Jesús Avezuela, hablando del mejoramiento humano y Francisco Otero que reflexiona sobre inteligencia artificial y creación artística.
Cada uno de los capítulos se cierra con una sección 'Guía rápida de convivencia' que da una serie de consejos sencillos y actuables para mejorar nuestra convivencia con los algoritmos en los aspectos tratados en el capítulo correspondiente.

Tras el cuerpo principal del libro, vienen algunas secciones finales. Así en 'Últimas recomendaciones para aprender a convivir con la inteligencia artificial' se dan unos consejos finales, en 'Juramento hipocrático para el buen uso de la inteligencia artificial' los autores hacen y firman una suerte de juramento hipocrático que puede servir como modelo a un código de conducta de los profesionales de la inteligencia artificial y, como ya se hizo en el final de su anterior libro, 'El mito del algoritmo' se cierra el libro con una narración de ficción de la que no desvelaré nada: 'Epílogo. Un cuento sobre Inteligencia Artificial; El algoritmo y yo.'

'El algoritmo y yo' es un libro ágil, de fácil lectura, exento de tratamientos tecnológicos y centrado en ejemplificar de manera cercana los usos de la inteligencia artificial en nuestra vida diaria y cómo debería ser nuestra relación con a misma para que sea lo más beneficiosa posible.

Este libro viene, en cierto modo, a ser la segunda parte de 'El mito del algoritmo'. ¿Habrá tercera parte? 
 
Idoia Salazar

(Fuente: Ligera elaboración propia de su ficha en Foro de foros)

Idoia Salazar
Idoia Salazar es presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Co-directora del área de Ética y Responsabilidad de OdiseIA. Doctora en Periodismo. Profesora de la Universidad San Pablo CEU, Madrid.

Especializada en Ética de la Inteligencia Artificial. Investigador Principal del Grupo de Investigación SIMPAIR (Impacto Social de la Inteligencia Artificial y la Robótica). Autora de los libros ‘La revolución de los robots: cómo la inteligencia artificial y la robótica afectan a nuestro futuro’ y 'Las profundidades de Internet: Accede a la información que los buscadores no encuentran y descubre el futuro inteligente de la Red’ y co-autora de 'El mito del algoritmo' y 'El algoritmo yo'. Es también autora de artículos científicos y divulgativos.

Miembro del comité de expertos del Seminario Permanente de Huella Digital de la Fundación Pablo VI. Tratando de contribuir a un mundo mejor y más justo desde el uso responsable y ético del Big Data y la Inteligencia Artificial.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @idoiasalazar.

Richard Benjamins 

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Richard Benjamins
Entre las 100 personas más influyentes en negocios data-driven, según DataIQ 100. Anteriormente Group Chief Data Officer en AXA (seguros). Más de 10 años de experiencia en Telefónica en diferentes cargos de gestión relacionados con Big Data y Analítica. Co-fundador de startups y ONGs. Speaker frecuente en eventos sobre Big Data e Inteligencia Artificial. Miembro del grupo de expertos en compartición de datos de la Comisión Europea. Autor de 'El mito del algoritmo'.

Su pasión es la creación de valor a partir de los datos. Valor comercial pero también valor para la sociedad. Es el fundador del departamento de Telefónica Big Data for Social Good. Actualmente trabaja en cómo hacer los datos y la Inteligencia Artificial más sostenibles desde una perspectiva tanto de negocio como social y ética. Es asesor estratégico de Focus360 y de BigML, una startup que pone el Machine Learning en manos de la gente de negocio.

Antes de unirse a Telefónica, fue director y miembro del consejo en ISOCO, de la cual fue co-fundador en 1999. Con base en su trabajo ISOCO recibió el National Award for Computer Science.

Benjamins ha ocupado puestos en la Universidad Politécnica de Madrid, la Universidad de Amsterdam, la Universidad de Sao Paulo en Brasil, la Universidad de París-Sur en Francia y el Instituto español para la Investigación de la Inteligencia Artificial en Barcelona.

Es co-fundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y uno de los miembros fundadores de la Incubadora Europea para startups da Datos Abiertos ( http://opendataincubator.eu/).

Es autor del libro 'A data-driven company' y co-autor de 'El mito del algoritmo' y 'El algoritmo y yo'

Ha publicado más de cien artículos científicos sobre Inteligencia Artificial, Ética e Inteligencia Artificial, sistemas basados en conocimiento, y web semántica. Ha co-presidido numerosos talleres y conferencias internacionales. Es asesor de varias startups y proyectos internacionales de investigación. Fue presidente de la conferencia K-CAP 2013 y co-presidente de la sección industrial en ISWC 2014.

Es miembro del comité editorial de IEEE Intelligent Systems y de la task force de GSMA sobre Big Data para el Bien Social.

El doctor Benjamins recibió en 1993 su doctorado en Ciencias Cognitivas / Inteligencia Artificial por la Universidad de Amsterdam.

Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vrbenjamins.

Ficha técnica:

lunes, 24 de enero de 2022

El ajedrez y el factor escala en el aprendizaje algorítmico

Usando unos mecanismos que en estos momentos nos son desconocidos, el cerebro humano es capaz de evaluar situaciones y responder de forma adecuada, o al menos razonable, de forma casi instantánea. No sabemos cómo lo hace y lo cierto es que, cuando estamos en el campo de la algoritmia, nos vendría muy bien saberlo, porque nos permitiría seguramente resolver computacionalmente problemáticas que hoy en día nos están vedadas o, al menos, nos resultan complejas.

Algunos de los fenómenos que los humanos parecemos ser capaces de gestionar bastante bien es la ambigüedad, las situaciones o datos que no son 'blanco' o 'negro' o los casos con información incompleta. Aunque a nivel algorítmico se van produciendo avances en esa línea, lo cierto es que cuesta conseguir buenos resultados.

Otro aspecto que los humanos (y otros seres vivos) somos capaces de manejar bien, no sé si de manera óptima pero al menos sí razonable, es lo que aquí he denominado factor escala y que se refiere a la cantidad de opciones posibles en un momento dado. 

Y eso es lo que quisiera traer a colación, no para descubrir nada nuevo, sino para ilustrar para el lector que lo desconozca, lo importante que esa esa escala y las dificultades que genera a nivel algorítmico.

Y lo comento usando el socorrido mundo de los juegos, de los juegos de mesa, tan utilizado para la investigación en inteligencia artificial.

Lo bueno de los juegos, como campo de estudio es que ofrecen un entorno hasta cierto punto complejos pero con reglas muy claras y con un número de opciones finito, cosa que los hace relativamente manejables para el estudio, la experimentación... y la consecución de éxito. En cierto sentido, podemos decir que este tipo de juegos eliminan el factor ambigüedad y limitan, aunque no siempre en muy alta medida, la escala. 

Pero pasemos ya a comentar brevemente el efecto de esa escala.


La fuerza bruta y la programación tradicional


En juegos muy sencillos, es posible resolverlos mediante programación tradicional (programación que no incluye aprendizaje y en que las reglas son explícitas). Estoy pensando en el caso, por ejemplo, del tres en raya.

Aunque debo confesar que ya no recuerdo exactamente cómo lo hice, sí puedo decir que hace muchos años, cuando comenzaba el 'boom' de la informática personal y cuando yo daba mis primeros pasos (bueno, quizá segundos pasos) en programación, desarrollé, en el venerado Turbo PASCAL, un programa que jugaba al tres en raya. No me costó demasiado tiempo. Se me han olvidado muchos detalles pero recuerdo que lo que le introduje en su lógica fue una cascada de reglas, unas reglas que me inventé yo mismo, que no eran muchas y que no sé si eran perfectas o no, pero lo cierto es que el programa jugaba bien o muy bien y creo que nunca conseguí ganarle, sólo empatar. 

En esto consisten en general los algoritmos de programación tradicional: simplemente, el programador (o el diseñador) sabe qué reglas hay que aplicar, las especifica de manera inequívoca y las traslada al software. Y el comportamiento externo es perfectamente inteligente aunque no consideremos esto realmente inteligencia artificial.

Hay otra forma: la fuerza bruta. Se trata, simplemente, de ensayar todas las opciones y quedarse con la buena, algo que conocemos, por ejemplo, del mundo de la ciberseguridad donde una contraseña corta se puede llegar a descubrir mediante fuerza bruta (de ahí la limitación de intentos en un 'login'). 

En el caso de un juego sencillo. como es el tres en raya, esta fuerza bruta se podría aplicar de una forma muy sencilla. En el tres en raya sólo hay nueve casillas, y cada una de esas casillas sólo puede estar en tres estados: vacía, ocupada por el jugador A u ocupada por el jugador B. Es decir, el número de estados posibles es:


NUMestados = 39 = 19.683


En realidad, ni siquiera hay 19.683 estados posibles porque no todas las combinaciones están permitidas. Así, por ejemplo, no es posible que todas las casillas estén ocupadas por el jugador A o todas por el jugador B. En realidad, el número de casillas ocupadas por A y B debe ser igual en número o superior en uno a favor del jugador que inicia la partida (digamos que el A). No sé cuántos jugadas de ese total de 19.683 habría que descartar, pero tampoco importa mucho para lo que nos ocupa. Estamos hablando de un juego en que el número de estados posibles es de unos pocos miles. Unos pocos miles en computación no es demasiado. Una forma, no digo que la mejor, pero una forma viable, de aplicar fuerza bruta sería, simplemente, hacer una base de datos con una tabla de diez columnas: las nueve primeras representarían el estado de cada casilla y la décima, la jugada que debería hacerse. El algoritmo lo único que tendría que hacer, en cada jugada, es consultar en la base de datos cuál es la jugada a realizar en la situación en que se encuentra en ese momento.

En este caso, aplicamos en cierto sentido fuerza bruta, porque tenemos la solución para todas las posibilidades. Y, de nuevo, no lo consideramos inteligencia artificial, porque lo inteligente no es el algoritmo sino la persona que rellena la tabla de la base de datos. 

En cualquier caso, estamos ante una situación de una escala muy manejable, lo cual permite su resolución muy efectiva (perfecta, en realidad) mediante algoritmos relativamente sencillos y con unas necesidades computacionales limitadas.


La búsqueda alfa-beta


Pero ahora damos el salto a un juego mucho más difícil: el ajedrez. En este caso, y según descubro en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig el número de jugadas posible es de 1040 jugadas,

1040 es un número gigantesco y que, al menos hasta la llegada efectiva de la computación cuántica, no permite la fuerza bruta... y mucho menos para hacerlo en tiempo real, como debe ser un juego.

Un juego como el ajedrez (también el tres en raya, por cierto) se puede resolver mediante los algoritmos de búsqueda en un árbol alfa-beta, donde se va generando y explorando un árbol de opciones y usando, para evaluar cada opción una función de utilidad. Esa función de utilidad se debe maximizar para el jugador que 'somos' y minimizar para el contrario, dando lugar a lo que se denomina el 'minimax',

Sin embargo, si no hacemos nada más, este algoritmo es casi una forma de fuerza bruta. En la realidad, sin embargo, estos algoritmos de búsqueda se sofistican bastante mediante el uso de diversas estrategias y heurísticas que disminuyen mucho el espacio de búsqueda efectivo (aunque con riesgo de no adoptar la decisión óptima, sino sólo una buena decisión). Además, y si se quiere que esto se haga en tiempo real o cuasi-real se trabaja con superordenadores altamente paralelos.

Así es como trabajaba el famoso 'Deep Blue' que batió a Kasparov.  

Es una forma de afrontar la escala, y una forma que se aplica con éxito hoy en día.


El aprendizaje supervisado


Otra forma es el uso del aprendizaje supervisado

En este caso, de alguna forma es el algoritmo el que tiene que descubrir el patrón subyacente (en este caso podríamos pensar en la estrategia para jugar bien) a partir de una serie de datos de ejemplo en que se instruye al algoritmo acerca de cuál es la respuesta correcta en cada caso.

Así, en el caso del ajedrez, podríamos tomar como datos de ejemplo las partidas de grandes maestros en que estos maestros han ganado. Y podríamos asumir que, aunque quizá no necesariamente óptimas, las jugadas que realizaron en esas partidas que ganaron eran, quizá no perfectas, pero sí buenas.

Pero hay, sin embargo, hay una gran dificultad y que tiene que ver con la escala 

Según descubro leyendo a Russell y Norvig (y debo confesar que el dato que viene a continuación es lo que me inspiró este artículo),  aplicando esa forma de tener datos de ejemplo de buenas jugadas, 'sólo' hay disponibles 1010 (diez mil millones) de jugadas. Diez mil millones pueden parecer muchas, pero si se comparan esos diez mil millones, 1010, con los 1040 de jugadas posibles, nos damos cuenta de que estamos enormemente lejos de cubrir todas las opciones posibles, eso sin contar con el tiempo y recursos computacionales que podría consumir el aprendizaje,

Por supuesto, es imposible, al menos con la tecnología actual, aplicar la fuerza bruta al ajedrez, pero tampoco parece muy prometedor conseguir buenos resultados con un aprendizaje supervisado, lo cual no quita a que los algoritmos de aprendizaje supervisado sean muy exitosos hoy día en muchos campos y hayan permitido resolver de forma satisfactoria muchos problemas, y muchos problemas complejos, además.


Otras formas de aprendizaje


Ya comentaba hace unas semanas, en el artículo titulado 'La equívoca relación de inteligencia artificial y datos: cinco mitos comunes' cómo la dependencia de los datos en el entrenamiento de los algoritmos es en realidad una forma de limitación. 

Una parte importante de la investigación en algoritmia de aprendizaje (el 'transfer learning', el aprendizaje parcialmente supervisado o el aprendizaje por refuerzo, por ejemplo) tienen que ver, al menos en parte, con formas de aprendizaje más económicas en datos... como parece que es, aunque tampoco podemos estar seguros de ello, el aprendizaje humano. 


domingo, 23 de enero de 2022

Cristianismo ante inteligencia artificial y robots con John Wyatt y Stephen Williams

'The robot will see you now' es un enfoque algo diferente de la literatura habitual sobre ética de la inteligencia artificial o la robótica porque lo hace, de forma declarada, no desde un ámbito filosófico sino desde la fe cristiana y con foco en lo que dicha visión puede aportar o cómo se pueden abordar los retos por los creyentes de esa religión. De ahí su subtítulo: 'Artificial Intelligence and the Christian Faith'.

Se trata de un libro coral, en el que intervienen más de una decena de autores aportando diferentes perspectivas.

Se abre el libro con una introducción titulada 'Introduction: a computer technology perspective' escrita por Peter Robinson. En ella y tras una reflexión inicial sobre cómo algunas tecnologías llevan aparejados riesgos, intenta clarificar distinción entre tecnologías de la información, inteligencia artificial y robots y luego plantea por qué un software puede llevar a resultados peligrosos: los errores y la motivación.

A partir de ahí, se desarrolla el cuerpo del libro que se compone de catorce capítulos estructurados en tres partes, como sigue:
  • 'PART 1 - WHAT IS GOING ON? CULTURAL AND HISTORICAL ANALYSIS:' Esta primera parte es una especie de puesta en contexto, analizando el entorno cultural y de pensamiento en torno a la inteligencia artificial y los robots y abarca cinco capítulos:

    • '1. Science fiction, AI and our descent into insignificance' Christina Bieber Lake firma este capítulo que analiza las preocupaciones del ser humano con respecto a la inteligencia artificial, unas preocupaciones que inicialmente se centran en si estamos sobrepasando los límites establecidos por Dios o si las máquinas nos conviertan en obsoletos, pero cada vez más nos conducen incluso a preguntarnos si no existe ni ese Dios ni esos límites o si el ser humano nunca ha sido realmente importante. En el viaje de esos miedos y preocupaciones, repasa la teoría de Jean Baudrillard en su libro 'Simulacra and simulation' en que afirma que vivimos en una especie de simulacro de simulación y, cuando analiza el territorio de la ciencia ficción dice que su desarrollo se puede mapear a tres órdenes de simulacro: el primero que es 'natural' y que intenta restaurar la naturaleza como hecha a imagen de Dios, el segundo que intenta producir un nuevo orden industrial, una utopía, y el tercero que es un simulacro de simulaciones. La autora sostiene que la ciencia ficción ilustra un paso en la sociedad del segundo al tercer orden de simulacro y explica esa afirmación, primero mediante un análisis de la obra de Asimov 'Yo, robot' siguiendo por el análisis de otras obras como las de Phillip K. Dick (quien escribio la obra en que se basa 'Blade Runner') o Iain Banks.

    • '2. Out of the machine: cinema and science fiction' Continuando un poco esa línea, que en el capítulo anterior mezclaba literatura y cine, este capítulo, firmado por Crystal L. Downing, se centra más en el cine. Primero explora la conexión existente entre lo que denomina 'máquinas cinemáticas' y la ciencia-ficción y luego hace un análisis más pormenorizado de la película 'Ex Machina'. Por el camino se comentan muchas otras obras cinematrográficas.

    • '3. Behind artificial intelligence' Un capítulo, cuyo autor es Stephen Williams que hace una especie de semblanza histórica del desarrollo de la inteligencia artificial pero desde una perspectiva no técnica sino, más bien filosófica, mezclando las visiones de filósofos (Platón, Hobbes, Dreyfuss, etc), científicos (Leibniz, Boole, Descartes, etc) ) y algún pionero de la inteligencia artificial, como Marvin Minskym, McCarthy o Turin.

    • '4. Being human in a world of intelligent machines' Un interesante capítulo, de John Wyatt, uno de los editores, en que analiza varios aspectos que tiene que ver con la naturaleza humana en relación con la naturaleza de las máquinas. Así, se pregunta primero qué significa exactamente el ser humano y el relevante papel de la inteligencia en ello, recuerda la teoría de que los humanos somos una forma de máquinas y también la de que la visión como máquina puede ser una metáfora útil para entender al ser humano. También comenta el fenómeno de la antropomorfización (la atribución de características humanas a las máquinas) y hace consideraciones sobre las máquinas como posibles agentes morales y posibles pacientes morales.

    • '5. AI and robots: some Asian approaches' Finaliza este recorrido con un análisis de la visión asiática (India, Japón, etc) sobre inteligencia artificial y robots, una visión que presenta Vinoth Ramachandra.

  • 'PART 2 - THEOLOGICAL FRAMEWORKS AND RESPONSES:' Una segunda parte más teológica

    • '6. What is to be a person?' Un nuevo análisis sobre el significado de ser persona, a cargo en esta ocasión de Stephen Williams, otro de los editores. Habla en primer lugar de la humanidad como hecha a imagen y semejanza de Dios y deja claro, en ese sentido, que cualquier creación artificial no gozará de esa característica. También analiza la relación de la persona con el cuerpo y finaliza con consideraciones, desde la perspectiva cristiana, acerca de dónde nos encontramos ahora mismo en materia de inteligencia artificial.

    • '7. Robots, AI and human uniqueness: learning what not to fear' Robert Song analiza la naturaleza humana frente a la Inteligencia artificial, especialmente desde la perspectiva de la identidad humana y su singularidad y afirma, sin dudas, que los cristianos no tienen nada que temer de la inteligencia artificial y los robots, al menos en lo que a la identidad y singularidad se refiere. Ataca a lo largo de sus páginas el tema de esa singularidad, y de la dignidad y desarrollo humanos. También hace una crítica del naturalismo (la filosofía de que todo es explicable mediante ciencias naturales) y termina defendiendo que, aunque los seres humanos estemos hechos de materia, esta es, de alguna forma, una materia maravillosa pues, en última instancia, proviene de Dios.

    • '8. Surrogate, partner or tool: how autonomous should technology be?' Noreen Herzfeld en este capítulo ataca el tema de la autonomía. Primero se pregunta brevemente qué es una tecnología. Luego, y partiendo del relato del Génesis, considera a la humanidad como co-creadora junto con Dios y ahí es donde encuentra acomodo la tecnología. Luego analiza la inteligencia artificial razonando cómo debemos considerarla en materia de agencia y agencia moral para luego detenerse en las armas autónomas y finalizar con consideraciones sobre si podemos estar sobreestimando nuestras capacidades, sobre si somos más poderosos que sabios en materia de tecnología.

    • '9. The future of humanity' Finaliza esta parte con un capítulo de Victoria Lorrimar sobre el futuro de la humanidad. Introduce la visión de la singularidad de Kurzweil y lo compara con los futuros escatológicos propios de la visión cristiana y con el apocalipsis. Y trata también de la búsqueda de respuestas de cara al futuro de inteligencia artificial y robótica con la visión escatológica le lleva a la ética.

  • 'PART 3 - ETHICAL AND SOCIAL ISSUES:' Parte final compuesta de cinco capítulos dedicados, cada uno, a un tipo de problemática social o ética concreta.

    • '10. Sextech: simulated relationships with machines' En este capítulo, Andrew Graystone aborda la problemática de los robots sexuales. Primero pasa revista a la forma en que se ha comercializado diversas formas de juguetes o robots sexuales para a continuación analizar aspectos como la simulación versus la autenticidad, cómo el mercado de juguetes/robots sexuales ofrece poca diversidad o la importancia del cuerpo y el tacto y, finalmente, la naturaleza social del sexo.

    • '11. Are the robots coming for our jobs?' Nigel Cameron se ocupa en este capítulo de lo relativo al trabajo y el empleo. Tras una larga introducción, hace una revisión histórica sobre el impacto de la automatización en el empleo, sigue con una rápida revisión de tendencias y acaba con un análisis de la dimensión humana del trabajo y el impacto de aspectos como la renta universal.

    • '12. The impact of AI and robotics on health and social care' En este capítulo, John Wyatt se centra en el sector de la salud y cuidados sociales. Repasa el impacto de las tecnologías digitales en las profesiones de la salud, explica la robótica social y las aplicaciones dedicadas a la salud mental. También explica la problemática del antropomorfismo y hace una revisión, breve, de las respuestas desde el punto de vista cristiano con foco en la prestación de cuidados y la solidaridad,

    • '13. Art, music and AI: the uses of AI in artistic creation' Andrzej Turkanek se ocupa de este capítulo dedicado al arte y a la creatividad dedicando en primer lugar pequeñas secciones a la pintura, la literatura o la música. Y luego reflexiona sobre la creatividad humana con referencias a la concepción cristiana y también al papel del arte como expresión del sufrimiento humano.

    • '14. The question of surveillance capitalism' Capítulo final de Nathan Mladin y Stephen Williams hablando sobre la vigilancia y lo que llama el capitalismo de la vigilancia ('surveillance capitalism') su impacto y cómo deberíamos responde con una perspectiva cristiana.
Se cierra el libro con unas conclusiones, a cargo de los dos editores, John Wyatt y Stephen Williams resumiendo un poco los temas más importantes sugeridos a lo largo del libro

'The robot will see you now' es un libro interesante, mesurado y racional, con una perspectiva original en cuanto que aportar la visión cristiana de estas problemáticas.

Quizá le sobra un poco, en mi opinión, la extensión dedicada en los capítulos iniciales a la ciencia ficción y el cine, que en mi opinión no tienen tanto que aportar, y me ha sorprendido, aunque esto no lo valoro de forma ni positiva ni negativa, solo lo constato, que la visión cristiana que se da a las problemática, que es clara y que no se oculta, no es, sin embargo, tan omnipresente, existiendo capítulos un poco al margen de esa concepción y, en ese sentido, acercándose un tanto a otras obras que tratan aspectos de ética en inteligencia artificial y robótica más desde un punto de vista filosófico.

Un libro, como digo, mesurado y nada evangelizador, aunque no niega ni oculta su inspiración cristiana, por lo que su lectura puede resultar atractiva a todos aquellos, ya sean técnicos, filósofos, sociólogos, antropólogos o lo que sea, con interés en las implicaciones sociales y éticas de la inteligencia artificial y la robótica con independencia de su fe.
 
John Wyatt

(Fuente: Traducción y ligera elaboración propia de la reseña de autor en el libro 'The robot will see you now')

John Wyatt
John Wyatt es profesor emérito de pediatría neonatal, Ética y perionatología en University College London y socio del Faraday Institute for Science and Religion, Cambridge. Tiene in especial interés en la interacción entre la ética médica, la tecnología y el cristianismo y co-dirigió un proyecto en el Faraday Institute sobre las implicaciones sociales, éticas y teológicas de los avances en inteligencia artificial y robótica.

Es autor de 'Dying Well', 'Right to Die: Euthanasia, assisted suicide and end-of-life care' y 'Matters of Life and Death: Human dilemmas in the light of the Christian faith' publicados en 2018, 2015 y 2009 respectivamente. Es también editor de 'The Robot will see you now' (2021).

Puedes saber más del autor visitando su página oficial o siguiéndole en Twitter donde se identifica como @johnswyatt.

Stephen Williams 

(Fuente: Traducción y ligera elaboración propia de la reseña de autor en el libro 'The robot will see you now')

Stephen N. Williams
Profesor honorario de Teología en Queen’s University, Belfast. un proyecto en el Faraday Institute sobre las implicaciones sociales, éticas y teológicas de los avances en inteligencia artificial y robótica.

Entre sus libros se encuentran 'The Election of Grace: A riddle without a resolution?' (2015), 'The Shadow of the Antichrist: Nietzsche’s critique of Christianity' (2006) y 'Revelation and Reconciliation: A window on modernity' (1995). También ha sido editor del libro 'The robot will see you now'.

Ficha técnica: