viernes, 28 de enero de 2022

Seis criterios de imparcialidad algorítmica... y alguna reserva

Es conocido que uno de los temas más citados cuando se habla de problemáticas éticas ligadas a la inteligencia artificial y el machine learning es el de los sesgos. 

En cierto sentido, y como imagen especular, con la problemática de los sesgos ('bias') se relaciona la aspiración a la imparcialidad ('fairness').

Vamos a hablar un poco de ellos.


Sesgo e imparcialidad


El sesgo ('bias') se produce, en el entorno de la inteligencia artificial, cuando la aplicación de un algoritmo a un ámbito concreto produce unos resultados que, de manera global, no trata a todos los colectivos por igual sino que favorece y, sobre todo, perjudica a alguno de ellos. Las colectivos 'víctimas' suelen ser los habituales, no solo en la inteligencia artificial sino en la sociedad: mujeres, personas de raza no blanca, personas mayores, etc.

Como decía, un poco a la idea del sesgo, como defecto, se opone la idea de la imparcialidad ('fairness') como aspiración, es decir, el tratar a todos los colectivos e individuos de una manera justa y, digamos, con igualdad de oportunidades.

Hago un breve paréntesis para hacer notar al lector cómo, por cada término, hasta ahora sesgo ('bias') e imparcialidad ('fairness'), estoy incluyendo su denominación en inglés. El motivo es que, al menos en mi percepción, los términos en inglés tienen algún matiz que no estoy seguro de que quede reflejado claramente en su traducción al castellano. Sobre todo, en el caso de 'fairness', hay varias traducciones posibles. Podría traducirlo, por ejemplo, como 'justicia' pero creo que, aparte de que colisionaría con la traducción de 'justice', también utilizada en el ámbito de la ética y la normativa, no sé si es la mejor forma de entender lo que 'fairness' significa. En cualquier caso, al anotar el término en inglés, dejo al lector suficientemente avezado, la libertad de pensar en castellano en los términos que considere más convenientes.  

Para lo que sigue, y sobre todo para lo que tengo en mi mente y que insinuaré al final del post, me parece más conveniente hablar de imparcialidad como traducción de 'fairness'.


Los seis criterios de imparcialidad


Bueno, el caso es que, la muy loable búsqueda de la imparcialidad ('fairness') en los algoritmos, o si se prefiere, la eliminación de los sesgos ('bias'), es un objetivo más elusivo de lo que se pudiera pensar. 

En este post, y alguno que seguirá, voy a reflejar y comentar alguna idea que se aporta ya hacia el final del libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig que tantos otros artículos de este blog ha inspirado ya.

Bueno, el caso es que estos autores, en el penúltimo capítulo, dedicado a la ética de la inteligencia artificial, enumeran seis criterios, seis requisitos o seis formas de entender qué es la imparcialidad o cómo debería ser un algoritmo para ser considerado imparcial.

Son los siguientes:


  • Imparcialidad individual ('individual fairness'): requisito de que cada individuo sea tratado de forma similar a otros individuos con independencia de a qué clase pertenezca. Por clase, entiéndase cosas como las que apuntábamos antes: género, raza, edad,...

  • Imparcialidad de grupo ('group fairness'): requisito de que dos clases sean tratadas de forma similar lo cual sea demostrable estadísticamente.

  • Imparcialidad a través de la inconsciencia ('fairness through unawareness'): requisito de que si eliminamos atributos referentes a aspectos sensibles como el género o la raza de un conjunto de datos ('dataset'), el algoritmo no pueda discriminar con base en esos atributos. Para los que no conozcan mucho de machine learning este requisito puede parecer absurdo o evidente: si eliminamos del conjunto de datos el género o la raza ¿Cómo va a el algoritmo a discriminar con base en esos atributos? Bueno, el caso es que en muchas ocasiones sí que puede. ¿Por qué? Pues porque existen otras muchas variables, variables 'proxy', que dan 'pistas' muy fiables, a veces seguras, del valor de esos atributos que pensábamos habíamos eliminado del conjunto de datos.

  • Igual resultado ('equal outcome'): requisito de que cada clase demográfica obtenga los mismos resultados, que es lo que se conoce también como paridad demográfica ('demographic parity'). Así, los autores aportan el ejemplo de los préstamos bancarios explicando que la paridad demográfica garantizaría que se concede el mismo volumen de préstamos a hombres y mujeres. También destacan que esta paridad demográfica, no asegura que se cumpla otro de los criterios, como es el de la imparcialidad individual.

  • Igual oportunidad ('equal opportunity'): requisito, también denominado equilibro ('balance'), que significa, llevado al ejemplo del préstamo, que si un individuo tiene capacidad de devolver el préstamo debe serle concedido independientemente de que se trate, digamos, de hombre o mujer. Los autores señalan, con acierto, que cumplir este criterio nos puede llevar a no cumplir el de igual resultado si, inherentemente, hay diferencias en la capacidad para devolver el préstamo entre hombres y mujeres.

  • Igual impacto ('equal impact'): parecido al anterior pero yendo un poco más allá, pues pide que la utilidad ('utility') esperada ante una situación como la del préstamo sea igual independientemente de la clase a la que se pertenezca, es decir, se valoran tanto los beneficios de una predicción verdadera, como los perjuicios de una predicción falsa.  


Como se puede observar, se trata de criterios que, cada uno por separado puede ser bastante razonable y que, seguramente, tenderíamos a dar por buenos y deseables. Y sin embargo, en alguna ocasión pueden ser al menos parcialmente contradictorios, como se ha apuntado.

Y, por otro lado, queda un poco pendiente la 'operacionalización' del criterio, cómo se trasladan al caso de algoritmos reales y concretos.


... y alguna reserva


Aunque, si no entramos en profundidades, el objetivo de eliminar sesgos y de alcanzar la imparcialidad, seguramente lo compartamos todos, lo cierto es que, en el detalle creo que sí puede haber discrepancias.

Al menos yo no me siento cómodo con algunas propuestas o insinuaciones, en lo algorítmico e incluso en lo no algorítmico.

A veces tengo la impresión de ser algo divergente en estos asuntos de ética de la inteligencia artificial, de tener opiniones algo distintas a las que se observan en los discursos dominantes.

En concreto, en el tema de los sesgos y la imparcialidad, pero no sólo en él, tengo reservas con respecto a ese discurso dominante y alguna idea que considero no bien recogida.

No obstante, de momento me las voy a guardar. Quiero pensármelas mejor e investigar algunos temas.

Cuando haya despejado dudas y tenga mis propuestas más claras, seguramente escriba algún post al respecto, pero de momento lo dejo en ese cierto suspense, en esa mera insinuación de mis reservas con las ideas dominantes, o que me parecen dominantes, sobre sesgo e imparcialidad.


miércoles, 26 de enero de 2022

Consciencia de las máquinas: el naturalismo biológico y la necesidad de prudencia

Ya hemos tratado en más de una ocasión en este blog el tema de la consciencia en las máquinas y más concretamente en los robots. No puedo negar que me resulta un tema muy atractivo, tanto el entendimiento del fenómeno de la consciencia en los humanos como la posibilidad, o no, y en caso afirmativo de qué manera, conseguirla, esa consciencia en robots.

Lo cierto es que, a día de hoy, y como ya he comentado en artículos pasados, ni entendemos la consciencia humana, ni somos capaces de conseguirla en robots y ni siquiera está muy claro que sea deseable alcanzar esa consciencia en los robots, caso de que fuese posible.

Eso me va a llevar a pedir, o aconsejar al menos, prudencia.


La visión de Damasio sobre la consciencia


Ya comentamos brevemente hace unas semanas la visión de Antonio Damasio sobre la consciencia, una visión que resumí y con la que especulé en los artículos titulados 'Derivadas del pensamiento de Damasio (I): Consciencia de los robots y la hipótesis de la sensorización masiva', 'Derivadas del pensamiento de Damasio (II): La dudosa consciencia del software y los límites del transhumanismo' y 'Consciencia de los robots: Antonio Damasio versus Jun Tani'.

Lo que me interesa recordar aquí es, simplemente, que para Damasio, la aparición de la consciencia está indisolublemente unida a la existencia de un cuerpo, ya que es la creación de imágenes del propio cuerpo lo que posibilita la aparición de esa consciencia.


El naturalismo biológico de John Searle


Leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig encuentro una muy breve referencia al llamado naturalismo biológico del filósofo John R. Searle y, en concreto, a lo que este pensador expresaba en un artículo ya antiguo, el titulado 'Minds, brains and programs' y publicado en 1980 en la revista 'The behavioral and brain sciences'.

Aunque tengo dicho artículo justo delante de mí en el momento de escribir este post, confieso que aún no lo he leído, por lo que, para lo que sigue, 'me fío' de lo que acerca del mismo resumen Russell y Norvig, Si su posterior lectura, que espero hacer en breve, me hiciese cambiar de opinión respecto a lo que a continuación voy a decir, cosa que dudo, lo haría constar como una modificación de este post o, quizá, como un nuevo post.

De todas formas, y fiándome, como digo, de lo que cuentan Russell y Norvig, lo que entiendo es que el naturalismo biológico de Searle entiende que la consciencia está unida a la realidad física, en concreto al sistema nervioso y los fenómenos neurobiológicos, aunque de alguna forma los trasciende y se sitúa en un plano superior o diferente. o dicho de otra forma, más parecida a como lo expresan Russell y Norvig, la consciencia es una característica emergente de alto nivel pero causada los fenómenos fisiológicos que se producen en las neuronas.

De alguna forma, pues, la consciencia, dicho de una forma algo simplista, necesita de las neuronas y su existencia está de alguna manera ligada a ellas. Sin neuronas, no hay consciencia. Sin embargo, si esa consciencia de alguna forma "está en las neuronas", no lo está por ejemplo, y como dicen Russel y Norvig, en un transistor de silicio.

Parece que esta forma de pensar, implica que un intelectual como Searle considera imposible la aparición de consciencia en un robot...al menos un robot fabricado con metal, plástico y silicio.

Según leo, esta argumentación de Searle ha sido discutida y eventualmente refutada aunque sin alcanzarse consenso ni a favor ni en contra. En concreto, Russell y Norvig aportan el caso de un relato de ciencia-ficción 'They are made out of meat' de Terry Bisson, en que unos robots alienígenas que llegan a la Tierra se sorprenden de que unos seres hecho de carne puedan pensar. La misma línea de razonamiento de Searle, en su caso, les llevaría  deducir que sólo pueden ser conscientes seres con mentes hechas de silicio, pongamos por caso.


La necesidad de prudencia


Aunque me resulta interesante conocer la teoría de Searle y sus refutaciones, en el fondo lo que pretendía con este post es llegar a esta llamada final a la prudencia. 

Y es por eso que no creo que la lectura detallada del artículo de Searle me haga cambiar de opinión respecto a lo que sigue.

El caso es que no deja de sorprenderme, una y otra vez, tanto en publicaciones y debates ligeros (en blogs, revistas, webinars, etc) como incluso en autores sesudos, como puede ser el caso de Searle, la seguridad, la suficiencia diría, con que se afirman cosas como que no se puede conseguir la consciencia en los robots o que la inteligencia artificial general es imposible y que la singularidad nunca llegará. O justo lo contrario, la seguridad y suficiencia con que otros afirman, y como dice Kurweil, que la singularidad está cerca, que llegaremos a conseguir la super-inteligencia y también la consciencia de los robots.

Creo que hay que ser más prudentes.

Sencillamente, no lo sabemos. 

Podemos opinar, opinar incluso con ciertos datos, ciertas argumentaciones racionales, ciertos síntomas. Pero saberlo, lo que se dice saberlo, no lo sabemos. Ni nuestro conocimiento del cerebro humano es suficientemente profundo ni nuestro desarrollo de la inteligencia artificial y la robótica suficientemente avanzados.

Así que no sabemos si es posible o no conseguir una consciencia artificial y no sabemos si se puede alcanzar o no la singularidad.

Podemos tener opiniones, podemos tener convencimientos, incluso íntimos convencimientos, con base en conocimientos, en intuiciones o en fe religiosa. Pero por fundadas y razonadas que éstas opiniones y convencimientos puedan ser, sólo son eso, opiniones.

Seamos, pues, prudentes, casi diría modestos, en nuestras afirmaciones. 


martes, 25 de enero de 2022

La convivencia de humanos y algoritmos según Idoia Salazar y Richard Benjamins

'El algoritmo y yo', el segundo que publican mano a mano Idoia Salazar y Richard Benjamins, trata de acercar el impacto en nuestro día a día de la inteligencia artificial y dar unas pautas para una convivencia saludable, ética y enriquecedora con esta tecnología.

El libro se abre con dos notas introductorias. En primer lugar la titulada 'Qué esperar de la guía de convivencia entre seres humanos y artificiales' en que nos hablan de tres ejes, conocer, mejorar y educar algoritmo y una breve 'Nota de la máquina' que es una invitación a adentrarnos en el libro.

A continuación, el contenido de la obra se estructura en siete capítulos, siete áreas temáticas representadas cada una por un día de la semana, como una forma de metáfora de esa convivencia diaria con la inteligencia artificial.
  • 'Lunes. Un compañero artificial:' Un capítulo centrado en los agentes virtuales y su interacción con las personas. Se habla de esos asistentes en el ámbito doméstico y cómo llegan a conocernos mejor que nosotros mismos, y también se habla de su empleo a nivel social y el impacto en la democracia, uso en el mundo laboral con un apunte específico para el periodismo y, finalmente, se habla del caso de Replika y la posibilidad de reproducir una personalidad de alguien ya fallecido. Por el camino, se incluye un aparte para hablar de la carta de derechos digitales en su sección XXV y se incluyen las opiniones de Daniel Innerarity hablando de inteligencia artificial y democracia, Lasse Rohuiainen quien habla de la inteligencia artificial para la empresa, Miguel Valle del olmo quien hace una visión futurista (2024) sobre todo pensando en servicios públicos y Alfredo Urdaci y David Corral que comentan del caso del periodismo y los medios de comunicación respectivamente.

  • 'Martes. Enfermarse ya no es tan impredecible:' Como el título anuncia, se habla de la inteligencia artificial en el sector salud, comenzando por mostrar cómo puede ayuar, por ejemplo, en el diagnóstico, actuando como 'médico virtual' o para el rastreo de contactos como en el caso del COVID. y luego se tratan algunas temáticas como la optimización del sistema sanitario, el caso de las enfermedades raras o la prevención del suicidio. En este capítulo, se muestra la sección XXIII de la carta de derechos digitales que habla de la protección de la salud en el entorno digital y se aportan las opiniones de Víctor Maojo que dibuja unas líneas de futuro de la medicina, Carolina Aguilar quien habla de inteligencia artificial y neuroelectrónica, Javier Mendoza que ejemplifica aplicaciones en el caso del aparato digestivo, Pedro José Ortega Barrado hablando del caso de la atrofia muscular espinal (MLE) y Sandra Timón que nos habla de usos para puestos de trabajo inclusivos.

  • 'Miércoles. Profesores artificialmente perfectos:' Aborda la educación y formación. Antes de entrar en temas más relacionados con las máquinas, explica cómo debemos aprender los humanos en el nuevo contexto, con foco en habilidades como el pensamiento crítico, la capacidad de análisis y la resolución de problemas. Y luego ya habla, brevemente, del aprendizaje de los algoritmos para a continuación saltar al uso de la inteligencia artificial como 'profesor' incluyendo el caso más delicado de personas con barreras físicas o intelectuales. En este capítulo se trae a colación la sección XVII de la carta de derechos digitales sobre el derecho a la educación digital y cuenta con las aportaciones de José Ignacio Latorre quien habla de una inteligencia compartida, Rosa Visiedo qiuen diserta sobre la Universidad digital y de la formación en competencias digitales, Pablo Rivas que identifica dos direcciones (por un lado el uso para la mejora de la educación propiamente dicha y por otro la reducción de carga administrativa a ella asociada), Ricardo Palomo quien hace varias consideraciones sobre esos profesores artificialmente perfectos que dan título al capítulo, Jassim Haji que cuenta el caso específico de Baréin y Carlos López Ariztegui quien hace unas consideraciones ligadas sobre todo a la enseñanza de posgrado.

  • 'Jueves. Trabajando en los retos pendientes:' Agrupa una serie de temas diversos que tienen que ver con los robots pero sobre todo con la gobernanza y con la regulación. Comienza hablando de temas de responsabilidad ('accountability') especialmente ligadas a los robots, se uso en ciberguerra y de la regulación de la inteligencia artificial. En esta ocasión, se incluyen las aportaciones de Teresa Rodríguez de las Heras, hablando de responsabilidad con un enfoque legal, Ángel Gómez de Ágreda, que habla brevemente de ciberseguridad y ciberdefensa, Emmanuel Goffi reflexionando sobre la gobernanza de la inteligencia artificial, Gonzalo Génova quien analiza las famosas tres leyes de la robótica de Asimov, Lorenzo Cotino, que aporta la visión del Derecho, Claudio Feijoo quien se centra en el caso de China, Raquel de Jorge aportando la perspectiva de la política internacional y Manuel Baena centrado en la diplomacia.

  • 'Viernes. De comprar por el futuro:' Se muestra ahora la aplicación al mundo comercial como la personalización de productos y servicios, la mejora de la experiencia de cliente y se tocan también los aspectos de responsabilidad tanto en consumidores como en empresas. En este capítulo se muestran las secciones de la carta de Derechos Digitales dedicadas a protección de datos y el derecho a no ser 'perfilado' y se completa con las opiniones de Luis Martín quien habla del uso de la Inteligencia Artificial en marketing estratégico, Tamer Davut que reflexiona sobre la auditoría de la inteligencia artificial y el rol del auditor, Ricardo Martínez que explica las preocupaciones habituales de los consumidores en relación con la inteligencia artificial y Victoria Camps quien se centra en la idea de libertad en un entorno de compra digital.

  • 'Sábado. Viajando sin límites físicos:' Hablamos ahora de viajes, turismo y entornos urbanos tocando temas como los robots que atienden en hoteles, el tema del idioma español en los sistemas de procesamiento de lenguaje natural o cambios en el transporte y se acaba elucubrando sobre visiones futuristas como los viajes espaciales o viajes en el tiempo. En este caso, se incluyen colaboraciones de Ramón Blecua, hablando de resolución de conflictos a nivel internacional, José Luis Prado que analiza el encaje de tecnologías en el entorno urbano, Daniel Sarasa que también se centra en las ciudades y el impacto en ellas de la inteligencia artificial, Miguel Ángel Blanco que explica el efecto que puede tener la computación cuántica en la inteligencia artificial y José Ignacio Latorre que aporta una nueva perspectiva al tema de la inteligencia compartida.

  • 'Domingo. Diversión simbiótica entre seres humanos y artificiales:' Finalizamos con el mundo del ocio hablando de la inteligencia artificial en videojuegos o en el deporte, en el arte, en la televisión y acometiendo el espinoso tema de los robots sexuales. En esta ocasión las opiniones corresponden a Albert Osuna que se centra en videojuegos, Esteban Granero con el uso de los datos en el deporte y en concreto en el fútbol, Eduardo Valdés, también en el mundo del deporte hablando de optimización del rendimiento deportivo pero también de los ingresos, Adrián Vallés que aporta la visión del deportista de élite, Jesús Avezuela, hablando del mejoramiento humano y Francisco Otero que reflexiona sobre inteligencia artificial y creación artística.
Cada uno de los capítulos se cierra con una sección 'Guía rápida de convivencia' que da una serie de consejos sencillos y actuables para mejorar nuestra convivencia con los algoritmos en los aspectos tratados en el capítulo correspondiente.

Tras el cuerpo principal del libro, vienen algunas secciones finales. Así en 'Últimas recomendaciones para aprender a convivir con la inteligencia artificial' se dan unos consejos finales, en 'Juramento hipocrático para el buen uso de la inteligencia artificial' los autores hacen y firman una suerte de juramento hipocrático que puede servir como modelo a un código de conducta de los profesionales de la inteligencia artificial y, como ya se hizo en el final de su anterior libro, 'El mito del algoritmo' se cierra el libro con una narración de ficción de la que no desvelaré nada: 'Epílogo. Un cuento sobre Inteligencia Artificial; El algoritmo y yo.'

'El algoritmo y yo' es un libro ágil, de fácil lectura, exento de tratamientos tecnológicos y centrado en ejemplificar de manera cercana los usos de la inteligencia artificial en nuestra vida diaria y cómo debería ser nuestra relación con a misma para que sea lo más beneficiosa posible.

Este libro viene, en cierto modo, a ser la segunda parte de 'El mito del algoritmo'. ¿Habrá tercera parte? 
 
Idoia Salazar

(Fuente: Ligera elaboración propia de su ficha en Foro de foros)

Idoia Salazar
Idoia Salazar es presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Co-directora del área de Ética y Responsabilidad de OdiseIA. Doctora en Periodismo. Profesora de la Universidad San Pablo CEU, Madrid.

Especializada en Ética de la Inteligencia Artificial. Investigador Principal del Grupo de Investigación SIMPAIR (Impacto Social de la Inteligencia Artificial y la Robótica). Autora de los libros ‘La revolución de los robots: cómo la inteligencia artificial y la robótica afectan a nuestro futuro’ y 'Las profundidades de Internet: Accede a la información que los buscadores no encuentran y descubre el futuro inteligente de la Red’ y co-autora de 'El mito del algoritmo' y 'El algoritmo yo'. Es también autora de artículos científicos y divulgativos.

Miembro del comité de expertos del Seminario Permanente de Huella Digital de la Fundación Pablo VI. Tratando de contribuir a un mundo mejor y más justo desde el uso responsable y ético del Big Data y la Inteligencia Artificial.

Puedes saber más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @idoiasalazar.

Richard Benjamins 

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Richard Benjamins
Entre las 100 personas más influyentes en negocios data-driven, según DataIQ 100. Anteriormente Group Chief Data Officer en AXA (seguros). Más de 10 años de experiencia en Telefónica en diferentes cargos de gestión relacionados con Big Data y Analítica. Co-fundador de startups y ONGs. Speaker frecuente en eventos sobre Big Data e Inteligencia Artificial. Miembro del grupo de expertos en compartición de datos de la Comisión Europea. Autor de 'El mito del algoritmo'.

Su pasión es la creación de valor a partir de los datos. Valor comercial pero también valor para la sociedad. Es el fundador del departamento de Telefónica Big Data for Social Good. Actualmente trabaja en cómo hacer los datos y la Inteligencia Artificial más sostenibles desde una perspectiva tanto de negocio como social y ética. Es asesor estratégico de Focus360 y de BigML, una startup que pone el Machine Learning en manos de la gente de negocio.

Antes de unirse a Telefónica, fue director y miembro del consejo en ISOCO, de la cual fue co-fundador en 1999. Con base en su trabajo ISOCO recibió el National Award for Computer Science.

Benjamins ha ocupado puestos en la Universidad Politécnica de Madrid, la Universidad de Amsterdam, la Universidad de Sao Paulo en Brasil, la Universidad de París-Sur en Francia y el Instituto español para la Investigación de la Inteligencia Artificial en Barcelona.

Es co-fundador del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y uno de los miembros fundadores de la Incubadora Europea para startups da Datos Abiertos ( http://opendataincubator.eu/).

Es autor del libro 'A data-driven company' y co-autor de 'El mito del algoritmo' y 'El algoritmo y yo'

Ha publicado más de cien artículos científicos sobre Inteligencia Artificial, Ética e Inteligencia Artificial, sistemas basados en conocimiento, y web semántica. Ha co-presidido numerosos talleres y conferencias internacionales. Es asesor de varias startups y proyectos internacionales de investigación. Fue presidente de la conferencia K-CAP 2013 y co-presidente de la sección industrial en ISWC 2014.

Es miembro del comité editorial de IEEE Intelligent Systems y de la task force de GSMA sobre Big Data para el Bien Social.

El doctor Benjamins recibió en 1993 su doctorado en Ciencias Cognitivas / Inteligencia Artificial por la Universidad de Amsterdam.

Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vrbenjamins.

Ficha técnica:

lunes, 24 de enero de 2022

El ajedrez y el factor escala en el aprendizaje algorítmico

Usando unos mecanismos que en estos momentos nos son desconocidos, el cerebro humano es capaz de evaluar situaciones y responder de forma adecuada, o al menos razonable, de forma casi instantánea. No sabemos cómo lo hace y lo cierto es que, cuando estamos en el campo de la algoritmia, nos vendría muy bien saberlo, porque nos permitiría seguramente resolver computacionalmente problemáticas que hoy en día nos están vedadas o, al menos, nos resultan complejas.

Algunos de los fenómenos que los humanos parecemos ser capaces de gestionar bastante bien es la ambigüedad, las situaciones o datos que no son 'blanco' o 'negro' o los casos con información incompleta. Aunque a nivel algorítmico se van produciendo avances en esa línea, lo cierto es que cuesta conseguir buenos resultados.

Otro aspecto que los humanos (y otros seres vivos) somos capaces de manejar bien, no sé si de manera óptima pero al menos sí razonable, es lo que aquí he denominado factor escala y que se refiere a la cantidad de opciones posibles en un momento dado. 

Y eso es lo que quisiera traer a colación, no para descubrir nada nuevo, sino para ilustrar para el lector que lo desconozca, lo importante que esa esa escala y las dificultades que genera a nivel algorítmico.

Y lo comento usando el socorrido mundo de los juegos, de los juegos de mesa, tan utilizado para la investigación en inteligencia artificial.

Lo bueno de los juegos, como campo de estudio es que ofrecen un entorno hasta cierto punto complejos pero con reglas muy claras y con un número de opciones finito, cosa que los hace relativamente manejables para el estudio, la experimentación... y la consecución de éxito. En cierto sentido, podemos decir que este tipo de juegos eliminan el factor ambigüedad y limitan, aunque no siempre en muy alta medida, la escala. 

Pero pasemos ya a comentar brevemente el efecto de esa escala.


La fuerza bruta y la programación tradicional


En juegos muy sencillos, es posible resolverlos mediante programación tradicional (programación que no incluye aprendizaje y en que las reglas son explícitas). Estoy pensando en el caso, por ejemplo, del tres en raya.

Aunque debo confesar que ya no recuerdo exactamente cómo lo hice, sí puedo decir que hace muchos años, cuando comenzaba el 'boom' de la informática personal y cuando yo daba mis primeros pasos (bueno, quizá segundos pasos) en programación, desarrollé, en el venerado Turbo PASCAL, un programa que jugaba al tres en raya. No me costó demasiado tiempo. Se me han olvidado muchos detalles pero recuerdo que lo que le introduje en su lógica fue una cascada de reglas, unas reglas que me inventé yo mismo, que no eran muchas y que no sé si eran perfectas o no, pero lo cierto es que el programa jugaba bien o muy bien y creo que nunca conseguí ganarle, sólo empatar. 

En esto consisten en general los algoritmos de programación tradicional: simplemente, el programador (o el diseñador) sabe qué reglas hay que aplicar, las especifica de manera inequívoca y las traslada al software. Y el comportamiento externo es perfectamente inteligente aunque no consideremos esto realmente inteligencia artificial.

Hay otra forma: la fuerza bruta. Se trata, simplemente, de ensayar todas las opciones y quedarse con la buena, algo que conocemos, por ejemplo, del mundo de la ciberseguridad donde una contraseña corta se puede llegar a descubrir mediante fuerza bruta (de ahí la limitación de intentos en un 'login'). 

En el caso de un juego sencillo. como es el tres en raya, esta fuerza bruta se podría aplicar de una forma muy sencilla. En el tres en raya sólo hay nueve casillas, y cada una de esas casillas sólo puede estar en tres estados: vacía, ocupada por el jugador A u ocupada por el jugador B. Es decir, el número de estados posibles es:


NUMestados = 39 = 19.683


En realidad, ni siquiera hay 19.683 estados posibles porque no todas las combinaciones están permitidas. Así, por ejemplo, no es posible que todas las casillas estén ocupadas por el jugador A o todas por el jugador B. En realidad, el número de casillas ocupadas por A y B debe ser igual en número o superior en uno a favor del jugador que inicia la partida (digamos que el A). No sé cuántos jugadas de ese total de 19.683 habría que descartar, pero tampoco importa mucho para lo que nos ocupa. Estamos hablando de un juego en que el número de estados posibles es de unos pocos miles. Unos pocos miles en computación no es demasiado. Una forma, no digo que la mejor, pero una forma viable, de aplicar fuerza bruta sería, simplemente, hacer una base de datos con una tabla de diez columnas: las nueve primeras representarían el estado de cada casilla y la décima, la jugada que debería hacerse. El algoritmo lo único que tendría que hacer, en cada jugada, es consultar en la base de datos cuál es la jugada a realizar en la situación en que se encuentra en ese momento.

En este caso, aplicamos en cierto sentido fuerza bruta, porque tenemos la solución para todas las posibilidades. Y, de nuevo, no lo consideramos inteligencia artificial, porque lo inteligente no es el algoritmo sino la persona que rellena la tabla de la base de datos. 

En cualquier caso, estamos ante una situación de una escala muy manejable, lo cual permite su resolución muy efectiva (perfecta, en realidad) mediante algoritmos relativamente sencillos y con unas necesidades computacionales limitadas.


La búsqueda alfa-beta


Pero ahora damos el salto a un juego mucho más difícil: el ajedrez. En este caso, y según descubro en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig el número de jugadas posible es de 1040 jugadas,

1040 es un número gigantesco y que, al menos hasta la llegada efectiva de la computación cuántica, no permite la fuerza bruta... y mucho menos para hacerlo en tiempo real, como debe ser un juego.

Un juego como el ajedrez (también el tres en raya, por cierto) se puede resolver mediante los algoritmos de búsqueda en un árbol alfa-beta, donde se va generando y explorando un árbol de opciones y usando, para evaluar cada opción una función de utilidad. Esa función de utilidad se debe maximizar para el jugador que 'somos' y minimizar para el contrario, dando lugar a lo que se denomina el 'minimax',

Sin embargo, si no hacemos nada más, este algoritmo es casi una forma de fuerza bruta. En la realidad, sin embargo, estos algoritmos de búsqueda se sofistican bastante mediante el uso de diversas estrategias y heurísticas que disminuyen mucho el espacio de búsqueda efectivo (aunque con riesgo de no adoptar la decisión óptima, sino sólo una buena decisión). Además, y si se quiere que esto se haga en tiempo real o cuasi-real se trabaja con superordenadores altamente paralelos.

Así es como trabajaba el famoso 'Deep Blue' que batió a Kasparov.  

Es una forma de afrontar la escala, y una forma que se aplica con éxito hoy en día.


El aprendizaje supervisado


Otra forma es el uso del aprendizaje supervisado

En este caso, de alguna forma es el algoritmo el que tiene que descubrir el patrón subyacente (en este caso podríamos pensar en la estrategia para jugar bien) a partir de una serie de datos de ejemplo en que se instruye al algoritmo acerca de cuál es la respuesta correcta en cada caso.

Así, en el caso del ajedrez, podríamos tomar como datos de ejemplo las partidas de grandes maestros en que estos maestros han ganado. Y podríamos asumir que, aunque quizá no necesariamente óptimas, las jugadas que realizaron en esas partidas que ganaron eran, quizá no perfectas, pero sí buenas.

Pero hay, sin embargo, hay una gran dificultad y que tiene que ver con la escala 

Según descubro leyendo a Russell y Norvig (y debo confesar que el dato que viene a continuación es lo que me inspiró este artículo),  aplicando esa forma de tener datos de ejemplo de buenas jugadas, 'sólo' hay disponibles 1010 (diez mil millones) de jugadas. Diez mil millones pueden parecer muchas, pero si se comparan esos diez mil millones, 1010, con los 1040 de jugadas posibles, nos damos cuenta de que estamos enormemente lejos de cubrir todas las opciones posibles, eso sin contar con el tiempo y recursos computacionales que podría consumir el aprendizaje,

Por supuesto, es imposible, al menos con la tecnología actual, aplicar la fuerza bruta al ajedrez, pero tampoco parece muy prometedor conseguir buenos resultados con un aprendizaje supervisado, lo cual no quita a que los algoritmos de aprendizaje supervisado sean muy exitosos hoy día en muchos campos y hayan permitido resolver de forma satisfactoria muchos problemas, y muchos problemas complejos, además.


Otras formas de aprendizaje


Ya comentaba hace unas semanas, en el artículo titulado 'La equívoca relación de inteligencia artificial y datos: cinco mitos comunes' cómo la dependencia de los datos en el entrenamiento de los algoritmos es en realidad una forma de limitación. 

Una parte importante de la investigación en algoritmia de aprendizaje (el 'transfer learning', el aprendizaje parcialmente supervisado o el aprendizaje por refuerzo, por ejemplo) tienen que ver, al menos en parte, con formas de aprendizaje más económicas en datos... como parece que es, aunque tampoco podemos estar seguros de ello, el aprendizaje humano. 


domingo, 23 de enero de 2022

Cristianismo ante inteligencia artificial y robots con John Wyatt y Stephen Williams

'The robot will see you now' es un enfoque algo diferente de la literatura habitual sobre ética de la inteligencia artificial o la robótica porque lo hace, de forma declarada, no desde un ámbito filosófico sino desde la fe cristiana y con foco en lo que dicha visión puede aportar o cómo se pueden abordar los retos por los creyentes de esa religión. De ahí su subtítulo: 'Artificial Intelligence and the Christian Faith'.

Se trata de un libro coral, en el que intervienen más de una decena de autores aportando diferentes perspectivas.

Se abre el libro con una introducción titulada 'Introduction: a computer technology perspective' escrita por Peter Robinson. En ella y tras una reflexión inicial sobre cómo algunas tecnologías llevan aparejados riesgos, intenta clarificar distinción entre tecnologías de la información, inteligencia artificial y robots y luego plantea por qué un software puede llevar a resultados peligrosos: los errores y la motivación.

A partir de ahí, se desarrolla el cuerpo del libro que se compone de catorce capítulos estructurados en tres partes, como sigue:
  • 'PART 1 - WHAT IS GOING ON? CULTURAL AND HISTORICAL ANALYSIS:' Esta primera parte es una especie de puesta en contexto, analizando el entorno cultural y de pensamiento en torno a la inteligencia artificial y los robots y abarca cinco capítulos:

    • '1. Science fiction, AI and our descent into insignificance' Christina Bieber Lake firma este capítulo que analiza las preocupaciones del ser humano con respecto a la inteligencia artificial, unas preocupaciones que inicialmente se centran en si estamos sobrepasando los límites establecidos por Dios o si las máquinas nos conviertan en obsoletos, pero cada vez más nos conducen incluso a preguntarnos si no existe ni ese Dios ni esos límites o si el ser humano nunca ha sido realmente importante. En el viaje de esos miedos y preocupaciones, repasa la teoría de Jean Baudrillard en su libro 'Simulacra and simulation' en que afirma que vivimos en una especie de simulacro de simulación y, cuando analiza el territorio de la ciencia ficción dice que su desarrollo se puede mapear a tres órdenes de simulacro: el primero que es 'natural' y que intenta restaurar la naturaleza como hecha a imagen de Dios, el segundo que intenta producir un nuevo orden industrial, una utopía, y el tercero que es un simulacro de simulaciones. La autora sostiene que la ciencia ficción ilustra un paso en la sociedad del segundo al tercer orden de simulacro y explica esa afirmación, primero mediante un análisis de la obra de Asimov 'Yo, robot' siguiendo por el análisis de otras obras como las de Phillip K. Dick (quien escribio la obra en que se basa 'Blade Runner') o Iain Banks.

    • '2. Out of the machine: cinema and science fiction' Continuando un poco esa línea, que en el capítulo anterior mezclaba literatura y cine, este capítulo, firmado por Crystal L. Downing, se centra más en el cine. Primero explora la conexión existente entre lo que denomina 'máquinas cinemáticas' y la ciencia-ficción y luego hace un análisis más pormenorizado de la película 'Ex Machina'. Por el camino se comentan muchas otras obras cinematrográficas.

    • '3. Behind artificial intelligence' Un capítulo, cuyo autor es Stephen Williams que hace una especie de semblanza histórica del desarrollo de la inteligencia artificial pero desde una perspectiva no técnica sino, más bien filosófica, mezclando las visiones de filósofos (Platón, Hobbes, Dreyfuss, etc), científicos (Leibniz, Boole, Descartes, etc) ) y algún pionero de la inteligencia artificial, como Marvin Minskym, McCarthy o Turin.

    • '4. Being human in a world of intelligent machines' Un interesante capítulo, de John Wyatt, uno de los editores, en que analiza varios aspectos que tiene que ver con la naturaleza humana en relación con la naturaleza de las máquinas. Así, se pregunta primero qué significa exactamente el ser humano y el relevante papel de la inteligencia en ello, recuerda la teoría de que los humanos somos una forma de máquinas y también la de que la visión como máquina puede ser una metáfora útil para entender al ser humano. También comenta el fenómeno de la antropomorfización (la atribución de características humanas a las máquinas) y hace consideraciones sobre las máquinas como posibles agentes morales y posibles pacientes morales.

    • '5. AI and robots: some Asian approaches' Finaliza este recorrido con un análisis de la visión asiática (India, Japón, etc) sobre inteligencia artificial y robots, una visión que presenta Vinoth Ramachandra.

  • 'PART 2 - THEOLOGICAL FRAMEWORKS AND RESPONSES:' Una segunda parte más teológica

    • '6. What is to be a person?' Un nuevo análisis sobre el significado de ser persona, a cargo en esta ocasión de Stephen Williams, otro de los editores. Habla en primer lugar de la humanidad como hecha a imagen y semejanza de Dios y deja claro, en ese sentido, que cualquier creación artificial no gozará de esa característica. También analiza la relación de la persona con el cuerpo y finaliza con consideraciones, desde la perspectiva cristiana, acerca de dónde nos encontramos ahora mismo en materia de inteligencia artificial.

    • '7. Robots, AI and human uniqueness: learning what not to fear' Robert Song analiza la naturaleza humana frente a la Inteligencia artificial, especialmente desde la perspectiva de la identidad humana y su singularidad y afirma, sin dudas, que los cristianos no tienen nada que temer de la inteligencia artificial y los robots, al menos en lo que a la identidad y singularidad se refiere. Ataca a lo largo de sus páginas el tema de esa singularidad, y de la dignidad y desarrollo humanos. También hace una crítica del naturalismo (la filosofía de que todo es explicable mediante ciencias naturales) y termina defendiendo que, aunque los seres humanos estemos hechos de materia, esta es, de alguna forma, una materia maravillosa pues, en última instancia, proviene de Dios.

    • '8. Surrogate, partner or tool: how autonomous should technology be?' Noreen Herzfeld en este capítulo ataca el tema de la autonomía. Primero se pregunta brevemente qué es una tecnología. Luego, y partiendo del relato del Génesis, considera a la humanidad como co-creadora junto con Dios y ahí es donde encuentra acomodo la tecnología. Luego analiza la inteligencia artificial razonando cómo debemos considerarla en materia de agencia y agencia moral para luego detenerse en las armas autónomas y finalizar con consideraciones sobre si podemos estar sobreestimando nuestras capacidades, sobre si somos más poderosos que sabios en materia de tecnología.

    • '9. The future of humanity' Finaliza esta parte con un capítulo de Victoria Lorrimar sobre el futuro de la humanidad. Introduce la visión de la singularidad de Kurzweil y lo compara con los futuros escatológicos propios de la visión cristiana y con el apocalipsis. Y trata también de la búsqueda de respuestas de cara al futuro de inteligencia artificial y robótica con la visión escatológica le lleva a la ética.

  • 'PART 3 - ETHICAL AND SOCIAL ISSUES:' Parte final compuesta de cinco capítulos dedicados, cada uno, a un tipo de problemática social o ética concreta.

    • '10. Sextech: simulated relationships with machines' En este capítulo, Andrew Graystone aborda la problemática de los robots sexuales. Primero pasa revista a la forma en que se ha comercializado diversas formas de juguetes o robots sexuales para a continuación analizar aspectos como la simulación versus la autenticidad, cómo el mercado de juguetes/robots sexuales ofrece poca diversidad o la importancia del cuerpo y el tacto y, finalmente, la naturaleza social del sexo.

    • '11. Are the robots coming for our jobs?' Nigel Cameron se ocupa en este capítulo de lo relativo al trabajo y el empleo. Tras una larga introducción, hace una revisión histórica sobre el impacto de la automatización en el empleo, sigue con una rápida revisión de tendencias y acaba con un análisis de la dimensión humana del trabajo y el impacto de aspectos como la renta universal.

    • '12. The impact of AI and robotics on health and social care' En este capítulo, John Wyatt se centra en el sector de la salud y cuidados sociales. Repasa el impacto de las tecnologías digitales en las profesiones de la salud, explica la robótica social y las aplicaciones dedicadas a la salud mental. También explica la problemática del antropomorfismo y hace una revisión, breve, de las respuestas desde el punto de vista cristiano con foco en la prestación de cuidados y la solidaridad,

    • '13. Art, music and AI: the uses of AI in artistic creation' Andrzej Turkanek se ocupa de este capítulo dedicado al arte y a la creatividad dedicando en primer lugar pequeñas secciones a la pintura, la literatura o la música. Y luego reflexiona sobre la creatividad humana con referencias a la concepción cristiana y también al papel del arte como expresión del sufrimiento humano.

    • '14. The question of surveillance capitalism' Capítulo final de Nathan Mladin y Stephen Williams hablando sobre la vigilancia y lo que llama el capitalismo de la vigilancia ('surveillance capitalism') su impacto y cómo deberíamos responde con una perspectiva cristiana.
Se cierra el libro con unas conclusiones, a cargo de los dos editores, John Wyatt y Stephen Williams resumiendo un poco los temas más importantes sugeridos a lo largo del libro

'The robot will see you now' es un libro interesante, mesurado y racional, con una perspectiva original en cuanto que aportar la visión cristiana de estas problemáticas.

Quizá le sobra un poco, en mi opinión, la extensión dedicada en los capítulos iniciales a la ciencia ficción y el cine, que en mi opinión no tienen tanto que aportar, y me ha sorprendido, aunque esto no lo valoro de forma ni positiva ni negativa, solo lo constato, que la visión cristiana que se da a las problemática, que es clara y que no se oculta, no es, sin embargo, tan omnipresente, existiendo capítulos un poco al margen de esa concepción y, en ese sentido, acercándose un tanto a otras obras que tratan aspectos de ética en inteligencia artificial y robótica más desde un punto de vista filosófico.

Un libro, como digo, mesurado y nada evangelizador, aunque no niega ni oculta su inspiración cristiana, por lo que su lectura puede resultar atractiva a todos aquellos, ya sean técnicos, filósofos, sociólogos, antropólogos o lo que sea, con interés en las implicaciones sociales y éticas de la inteligencia artificial y la robótica con independencia de su fe.
 
John Wyatt

(Fuente: Traducción y ligera elaboración propia de la reseña de autor en el libro 'The robot will see you now')

John Wyatt
John Wyatt es profesor emérito de pediatría neonatal, Ética y perionatología en University College London y socio del Faraday Institute for Science and Religion, Cambridge. Tiene in especial interés en la interacción entre la ética médica, la tecnología y el cristianismo y co-dirigió un proyecto en el Faraday Institute sobre las implicaciones sociales, éticas y teológicas de los avances en inteligencia artificial y robótica.

Es autor de 'Dying Well', 'Right to Die: Euthanasia, assisted suicide and end-of-life care' y 'Matters of Life and Death: Human dilemmas in the light of the Christian faith' publicados en 2018, 2015 y 2009 respectivamente. Es también editor de 'The Robot will see you now' (2021).

Puedes saber más del autor visitando su página oficial o siguiéndole en Twitter donde se identifica como @johnswyatt.

Stephen Williams 

(Fuente: Traducción y ligera elaboración propia de la reseña de autor en el libro 'The robot will see you now')

Stephen N. Williams
Profesor honorario de Teología en Queen’s University, Belfast. un proyecto en el Faraday Institute sobre las implicaciones sociales, éticas y teológicas de los avances en inteligencia artificial y robótica.

Entre sus libros se encuentran 'The Election of Grace: A riddle without a resolution?' (2015), 'The Shadow of the Antichrist: Nietzsche’s critique of Christianity' (2006) y 'Revelation and Reconciliation: A window on modernity' (1995). También ha sido editor del libro 'The robot will see you now'.

Ficha técnica:

miércoles, 19 de enero de 2022

Muestras de que cerebro y redes neuronales no funcionan igual

Ya he mencionado varias veces en este blog cómo las redes neuronales, la tipología de algoritmos constituyentes del deep learning, se inspiran en el cerebro y sistema nervioso humanos pero como la semejanza no pasa de eso, una semejanza y una inspiración, pero que no podemos suponer el mismo funcionamiento.

La ignorancia sobre el cerebro humano


En primer lugar, mal podemos imitar, imitar de manera profunda quiero decir, el funcionamiento de algo que realmente desconocemos. 

Y no sabemos cómo funciona realmente el cerebro, aunque la neurociencia vaya avanzando a grandes pasos y cada vez arroje más elementos de luz. Así que, si no sabemos cómo funciona el cerebro, mal podemos diseñar un algoritmo que opere de la misma manera. 

La improbabilidad de conseguirlo es tan alta que roza la imposibilidad.


Síntomas de la diferencia entre cerebro y redes neuronales


Por si fuese poco esa 'casi' imposibilidad  teórica, existen muchos síntomas, no me atrevo a llamarles pruebas, pero sí síntomas claros, de que, en efecto, las redes neuronales no funcionan igual, o al menos no exactamente igual, que el cerebro humano.

Están descritos en la literatura, e incluso muchos de nosotros los podemos experimentar en nuestra interacción, por ejemplo, con agentes conversacionales, errores absurdos de los algoritmos de inteligencia artificial en general y deep learning en particular. Algoritmos que, en general funcionan bien, o incluso muy bien, fallan a veces de formas tan tontas que nos resulta incomprensible por lo absurdo.

Pero es que esos fallos son tontos y absurdos si pensamos como humanos con nuestro cerebro de humanos, pero no son en el fondo absurdos para una red neuronal 'pensando' como red neuronal con su 'cerebro' de red neuronal.

Está descrito incluso cómo, ex-profeso, y no siempre con santos propósitos, se puede engañar a algoritmos de deep learning. Se puede, por ejemplo, conseguir que algoritmos de visión artificial, que funcionan ben o muy bien, sean engañados sin embargo por otros algoritmos mediante el cambio de unos pocos píxeles de la imagen, unos pocos píxeles que para el ojo (y sobre todo el cerebro humano) son prácticamente invisibles y que no cambian nada de nuestra comprensión de esa misma imagen.

Un poco en esa línea, en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, se nos dice, a propósito precisamente de la visión artificial y del uso del deep learning en este campo que:


These findings suggest that deep learning models recognize objects in ways that are quite different from the human visual system.


Conclusión: cerebro y redes neuronales


Así que, tanto la lógica, como los síntomas que tenemos, apuntan a que cerebro y redes neuronales funcionan de manera diferente, no sabemos cuánto de diferente o parecido, a pesar de haber servido el primero, el cerebro, como inspiración de las segundas, las redes neuronales.

Quizá, y solo quizá, si algún día, si llegamos a comprender de forma profunda cómo funciona el cerebro, podamos construir redes neuronales, o puede que un algoritmo completamente diferente, capaz de emular realmente al cerebro humano, no sólo en sus resultados externos sino también en funcionamiento interno.  

Quizá, sólo quizá, pero si en algún momento avistamos que eso será realmente posible, habrá que pensar si es lo que queremos y, sobre todo, como lo gestionaríamos de una manera responsable.


martes, 18 de enero de 2022

Utopías para un mundo automatizado según John Danaher

'Automation and Utopia' es un libro filosófico que explora la posibilidad, casi cierta, de un mundo fuertemente automatizado, un mundo pues con empleo escaso, cosa que el autor no ve como negativo, y explora las alternativas que le quedarían al ser humano, alternativas que se definen como utopías.

Antes de abordar la estructura principal del libro, el autor dedica un primer capítulo, '1 The Autumn of Humanity:', a constatar la obsolescencia del ser humano en varios aspectos que va desgranando y explicando: agricultura, fabricación, finanzas, profesiones, sector servicios, administración pública o ciencia. Una obsolescencia, además, que Danaher considera irreversible dada nuestras ataduras biológicas y evolutivas, lo que hace que los logros del futuro, en su opinión, vayan a ser conseguidos más por máquinas que por los humanos.

Tras esta fuerte apertura, el resto del contenido del libro, seis capítulos adicionales para un total de siete, se estructura en dos partes que se corresponden con los elementos del título, automatización y utopía, de la siguiente forma:
  • PART ONE: AUTOMATION En esta parte se explican y desarrollan dos proposiones con las que abre explícitamente la sección: (1) que la automatización del trabajo es no solo posible, sino tambien deseable y (2) que la automatización no del trabajo sino de otras actividades de la vida diaria es mucho menos deseable y supone una amenaza para el bienestar del ser humano, por lo que debemos vigilar la relación con la tecnología en esos ámbitos para limitar las amenazas.

    • '2 The Case for Technological Unenployment:' Comienza preguntándose si el trabajo puede realmente ser eliminado y concluye que el trabajo, entendido como una actividad económica, puede y debe ser automatizado y por tanto eliminado. Además, da como hecho que, en efecto, se producirá la automatización y el desempleo tecnológico. Y luego dedica mucho espacio a analizar argumentaciones en favor y en contra sin que eso cambie las conclusiones mencionadas

    • '3 Why You Should Hate Your Job:' Una vez establecida la inevitabilidad del desempleo tecnológico, en este capítulo argumenta la deseabilidad y, en ese sentido, aporta cinco razones, que explica profusamente, por las que debemos 'odiar nuestro trabajo' y por lo que ese desempleo es deseable: el problema de la dominación de empleados por empleadores, la precariedad del empleo, el problema de la injusticia distributiva, el problema de la colonización de nuestro tiempo por el trabajo y el problema de la infelicidad e insatisfacción.

    • '4 Giving Techno-pessimism Its Due:' Si los dos capítulos anteriores desarrollaban la proposición uno, la posibilidad y deseabilidad de la automatización del trabajo, este capítulo desarrolla la segunda, el riesgo de automatizar actividades del día a día. Analiza qué entiende por una 'buena vida' y cómo deberíamos enfocar nuestras relaciones con la tecnología. Y luego aporta cinco argumentos para un tecno-pesimismo que desarrolla en lo que resta de capítulo: el problema de la separación de los humanos del mundo, el problema de la atención, el problema de la opacidad, el problema de la autonomía y el problema de la agencia.

  • PART TWO: UTOPIA Una segunda parte para desarrollar las otras dos proposiciones que conforman el pensamiento de Danaher al respecto de la automatización: (1) una forma de gestinar nuestra relación con la tecnología sería a través de la utopía Cíborg, es decir, nuestra integración con la tecnología, lo que podría revertir la marcha de nuestra obsolescencia (2) la otra utopía posible sería la utopía virtual en que nos retiramos a mundos virtuales creados mediante tecnología. Aunque pueda sorprender, Danaher apuesta por esta última.

    • '5 In Search of Utopia:' Antes de entrar explicar cada una de las utopías posibles, primero define lo que es una utopía, la visión como un mundo posible, y luego repasa tres aspectos adicionales, tres restricciones, a considerar: (1) evitar la tentación de la violencia (2) que la utopía ha de mantener un equilibro entre estabilidad y dinamismo y (3) la necesidad de tender un puente cultural entre nuestro mundo actual y cualquier utopia futura posible.

    • '6 The Cyborg Utopia:' Capítulo en que explica y valora la primera forma de utopía, la cíborg, explicando el concepto de cíborg y luego estudiando los argumentos favor y también en contra de esta utopía. Concluye que esta utopía no es la que estamos buscando.

    • '7 The Virtual Utopia:' Analiza la segunda utopía. Primero analiza la borrosa frontera que existe entre lo real y lo virtual, habla de la utopía virtual como una utopía de juegos y defiende esta opción pero también muestra argumentos críticos. Habla también del concepto de meta-utopía de Nozick, es decir, un mundo en que se pueden construir y unir muchos mundos. Revisa y analiza algunos argumentos en contra de la utopía virtual y concluye, en cualquier caso, indicando que nunca abandonaremos totalmente la realidad pero que, aun así, la utopía virtual puede ser lo que estamos buscando.
Y finaliza el libro con un epílogo, 'Epilogue: The Unending Quest', en que aporta unas reflexiones finales sobre la obsolescencia humana y la búsqueda de significado a su vida.

'Automation and Utopia' es un libro reflexivo, al fin y al cabo no deja de ser filosofía, bien argumentado, muy bien estructurado, y de pensamiento muy ordenado y racional, aunque, como se puede entrever por lo comentado arriba, con algunas conclusiones y giros sorprendentes, inesperados.

Una obra curiosa, sin duda.
 
John Danaher

(Fuente: Traducción y ligera elaboración propia de su Perfil en LinkedIn)

John Danaher
Profesor senior en NUI Galway.

Su intereses investigadores se sitúan en el ámbito de la filosofía legal, tecnologías emergentes y el futuro de la sociedad humana.

Es autor de los libros 'Automation and Utopia: Human Flourishing in a World Without Work' (2019) y co-editor de 'Robot Sex: Social and Ethical Implications' (2017).

Ha publicado, además, numerosos artículos sobre diversos temas como los riesgos de la Inteligencia Artificial Avanzada, la ética de los robots sociales, significado de la vida y futuro del trabajo y la ética del mejoramiento humano.

Danaher tiene un grado en derecho por el 'University Colleger Cork' y el 'Trinity College Dublin' así como un doctorado en Foilosofía de la ley por la 'University College Cork'

Puedes saber más del autor visitando su blog, su Perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @JohnDanaher.

Ficha técnica:

lunes, 17 de enero de 2022

Una pequeña dosis de misterio para el deep learning

Suelo, en muchos de los posts que dedico a inteligencia artificial intentar desmontar mitos y fantasías que la rodean, intentar explicar de forma realista el funcionamiento y lo que cabe esperar de este tipo de soluciones, y destacar su carácter científico-técnico y la necesidad de rigor.

Y no voy a hacer algo diferente en este artículo, aunque el título y su mención al misterio, pueda sugerir otra cosa. Pero sí voy a reconocer esa pequeña dosis de misterio, o inspiración o, si se quiere, ingenio, que afecta al diseño de arquitecturas y algoritmos de machine learning en general y deep learning en particular.


Deep learning y el rigor


Como comentaba recientemente en el artículo titulado, 'Con el debido respeto: los ingenieros y la ética de la Inteligencia Artificial', la inteligencia artificial y el deep learning son formas de ingeniería que unen, sobre todo, dos disciplinas, las matemáticas y la ingeniería de software, dos disciplinas, y muy especialmente las matemáticas, que se caracterizan por el rigor, la lógica y la deducción. 

Poco misterio.

En ese sentido, conviene, una vez más, desterrar fantasías y dejar de pensar en entes con voluntad propia o designios misteriosos y ocultos para los humanos. 

Que no. Que nada de eso. Que nada de fantasías. Que hablamos básicamente de matemáticas implementadas en software. Lógica, rigor y deducción.

Y sin embargo...


Diseño de deep learning, inspiración y misterio.


Y, sin embargo, sí que hay un puntito de misterio en lo que rodea al deep learning y al machine learning.

Pero no es un misterio referente a su funcionamiento o sus 'intenciones ocultas'.

No, es un misterio, más bien una necesidad de intuición e ingenio (ingenio humano, por cierto), y una necesidad de exploración, que rodea a su diseño y que, en el fondo, ya he visto reflejada hace muchos años en otras ramas de las matemáticas.

Y es que, a pesar de su carácter matemático, a pesar del 'know-how' adquirido en los últimos años, a pesar de que los mayores expertos en redes neuronales tienen buenas aproximaciones a lo que pueden conseguir con una arquitectura u otra, con un tipo de capa u otra, con unas funciones de activación u otras, con un algoritmo de aprendizaje u otro, lo cierto es que todavía, cuesta entender de manera profunda y completa cómo funcionan estas redes en realidad, por qué funcionan tan bien para algunos problemas y, sobre todo, en qué tipo de problemas y con qué arquitecturas podemos tener buenos resultados. Y cuesta tener una metodología estricta, procedimentada y cerrada para el diseño de redes neuronales u otros algoritmos de machine learning.

Y así, cuando se intenta diseñar una nueva arquitectura de red neuronal o abordar un problema nuevo, no todo es deducción o lógica pautada. Hay conocimiento, si. Hay experiencia, si. Hay ciertas reglas o buenas prácticas ya entendidas, si. Pero hay también una cierta dosis de exploración, de ingenio, de ensayo y error hasta dar con la arquitectura, el modelo, que estamos buscando y que funciona bien para el problema que queremos resolver o que mejora el comportamiento de redes precedentes. 

Un poco en esa línea va esta frase del libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, y que debo reconocer que me sorprendió un poco al leerla. Dicen:


... the true reasons for the success of deep learning have yet to be fully elucidated


una frase que se pregunta no sólo ya por las mejores arquitecturas para casos concretos sino incluso el motivo último de que este tipo de algoritmos sean tan exitosos. Personalmente, tengo alguna hipótesis de trabajo al respecto, pero que de momento me voy a guardar.

En cualquier caso, ese cierto misterio, desconocimiento si se prefiere, o necesidad de exploración, está ahí.

Y también aplica al diseño de redes concretas. Los mismos autores dicen unas páginas más adelante:


there is little understanding as to why some structures seem to work better than others for some particular problem.


La opción MLOps


En ese sentido, los autores sugieren una forma de trabajar que enlazaría, entiendo, con la idea de MLOps, es decir una cierta automatización de la exploración e incluso combinación de modelos.


For this reason, tools that facilitate rapid exploration and evaluation of different structures are essential for success in real-world problems.


De alguna manera, estas herramientas de MLOps, junto con otras funciones, automatizan y aceleran ese 'ensayo y error' (es cierto que solo para arquitecturas y modelos ya conocidos) y, sin eliminar del todo el puntito de misterio o desconocimiento sobre las razones últimas de la adecuación de un modelo o arquitectura u otro, sí que operativizan el diseño y eliminan parcialmente el misterio a nivel metodológico y práctico y, quizá, una vez conseguido el modelo óptimo se pueda intentar razonar a posteriori, 'a toro pasado' por qué ese modelo funciona bien y mejor que otros.


El misterio continua


Y quizá, sólo quizá, de esa forma, junto con otro tipo de análisis e investigaciones más orientadas a definir arquitecturas, modelos o algoritmos completamente nuevos, podamos ir eliminado algunas capas de misterio.

Quizá, pero, de momento, el misterio continua...


domingo, 16 de enero de 2022

Hacer storytelling con datos según Cole Nussbaumer Knaflic

'Storytelling con datos' es un libro muy orientado a la práctica, que busca presentar el uso los datos de manera adecuada, de forma que consigan una comunicación efectiva y convincente, una comunicación que cuente una historia basada en esos datos. El libro explica el método desarrollado por la autora que abarca seis lecciones las cuales se tratan en los primeros capítulos.

La obra se inicia con una introducción en que muestra algunos ejemplos de un mal uso de los elementos visuales para recoger datos y luego explica el planteamiento del libro, a quién va dirigido y su organización.

A continuación, el contenido se estructura en diez capítulos, como sigue:
  • 'Capítulo 1. La importancia del contexto:' Expone algunas ideas previas y puntos a tener claros antes de pasar a la historia y la visualización de datos propiamente dicha. Así , comienza explicando la diferencia entre un análisis exploratorio y uno aclaratorio. Luego habla de la definición del quién (tanto público como ponente), el qué (cuál es la acción que queremos, conseguir, el mecanismo ya sea presentación correo, informe, etc) y el tono) y el cómo. Plantea algunas preguntas que se pueden hacer para conocer mejor el contexto y luego expone el concepto de 'La gran idea', una frase que resume toda la comunicación. Finaliza proponiendo un guión visual de la comunicación.

  • 'Capítulo 2. Elegir un elemento visual efectivo:' Proporciona criterios para el uso de diferentes elementos gráficos y, en concreto, profundiza en Texto simple, Tablas, Mapas de calor, Gráficos de puntos, líneas, barras y áreas. Tras analizar cada uno de estos elementos, también aporta una serie de cosas a evitar.

  • 'Capítulo 3. ¡El caos es su enemigo!:' Habla del orden en la presentación de los datos. Primero hace unas consideraciones previas, muy interesantes, de carácter casi psicológico hablando de carga cognitiva y de las leyes de la percepción visual de la Gestalt. Luego habla de alineación y contraste para finalizar con un método en seis pasos para eliminar el caos en los elementos visuales.

  • 'Capítulo 4. Atraer la atención del público:' Habla de cómo ganar la atención del público. Como en el capítulo anterior, primero aporta algunas consideraciones psicológicas y cognitivas hablando del uso de la memoria, de la memoria icónica y la memoria de corto y largo plazo. Con esa base, habla de loas atributos preatentivos, los que ayudan a fijar la atención y los explica en referencia al tamaño, color y posición en la página.

  • 'Capítulo 5. Pensar como un diseñador:' Trata de aplicar los conceptos tradicionales de diseño al caso de la visualización de datos. Así, primero habla de los ofrecimientos estimulares, es decir, elementos del diseño que hacen obvio el uso del producto. En el caso de la visualización de datos esto se traduce en prácticas como destacar lo importante mediante negrita o color, eliminar distracciones o establecer una jerarquía clara de elementos. Luego aborda la accesibilidad, es decir, la posibilidad de usar el diseño por personas de diferentes capacidades. Así habla, por ejemplo, de la simplificación y del uso del texto como aclaración. Finalmente, aborda el último punto del diseño, la estética y habla de cosas como el color, la alineación o los espacios en blanco.

  • 'Capítulo 6. Análisis de modelos visuales:' Un corto capítulo en que, como forma de ejemplificación y repaso, analiza cinco modelos visuales: un gráfico de líneas, un gráfico de líneas con anotaciones y previsión, un gráfico de columnas 100% apiladas, un gráfico de columnas apiladas positivas y negativas y finalmente, un modelo de barras apiladas.

  • 'Capítulo 7. Lecciones para storytelling:' Finalizada de alguna manera el análisis de elementos visuales y su contexto, salta ahora al mensaje, a la historia. Primero habla de ideas generales de storytelling y relato, incluyendo su uso en la literatura o el cine y luego ya lo traslada al mundo más profesional y de la comunicación. Nos habla de la famosa estructuración en planteamiento, nudo y desenlace. Y nos habla también del flujo narrativo, del poder de la repetición, algunas tácticas para ayudar a dejar clara la historia que queremos contar y formas efectivas de terminar.

  • 'Capítulo 8. Juntar todas las piezas:' Como recapitulación y ejemplo de todo lo visto, en este capítulo desarrolla todos los pasos del método sobre un caso concreto.

  • 'Capítulo 9. Casos prácticas:' Plantea cinco retos habituales en comunicación y plantea como resolverlos. Los retos son: consideraciones de color sobre fondos oscuros, uso de animaciones en la presentación de gráficos, establecimiento de un orden lógico, evitar los gráficos espaguetti y alternativas a gráficos circulares.

  • 'Capítulo 10. Reflexión final:' Capítulo final que se ocupa, en primer lugar de dar cinco consejos, a saber: aprender a utilizar bien las herramientas de visualización, repetir y buscar opciones, dedicar tiempo al proceso de storytelling, buscar inspiración en buenos ejemplos y, finalmente, divertirse y encontrar el estilo propio. Luego aporta algunas ideas para mejorar las competencias en storytelling con datos en un equipo y cierra el capítulo y el libro, resumiendo, de nuevo, los seis pasos de su método: comprender el contexto, elegir el gráfico adecuado, eliminar el caos, dirigir la atención hacia donde interese, pensar como un diseñador y contar una historia.
'Storytelling con datos' es un libro práctico y ameno, con abundante información visual, como no podía ser menos, y buenos y muy claros ejemplos de aplicación práctica de las ideas explicadas.

Un libro muy util para la comunicación apoyada en datos y, casi, casi, para comunicación en general sobre todo en forma de informes o 'slides'.

Cole Nussbaumer Knaflic

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Cole Nussbaumer Knaflic
Cole Nussbaumer Knaflic cuenta historias con datos. Es fundadora y CEO de Storytelling with data (SWD) y autora de los libros superventas 'Storytelling with data: let’s practice!' y 'Storytelling with data: a data visualization guide for business professionals' que han sido traducidos a una docena de idiomas, se usan como libro de texto en más de cien universidades y sirve como libro de curso para decenas de miles de participantes en talleres SWD. Durante más de una década, Cole y su equipo han impartido sesiones de aprendizaje interactivas a las que han accedido individuos, compañías e instituciones benéficas a lo largo de todo el mundo. También ayudan a las personas a crear gráficos que proporcionan significado y los entretejen construyendo historias persuasivas en la comunidad SWD, el blog, un podcast y otros recursos.

Antes de su etapa en SWD, se talento se perfeccionó a través de puestos analíticos en banca, 'private equity', y como gestora en el equipo de Google People Analytics. En Google, empleó el enfoque data-driven para informar de programas innovadores y prácticas de gestión y viajó por las oficinas de Google en Estados Unidos y Europa para impartir el curso que ella misma había desarrollado sobre visualización de datos. Cole ha actuado como miembro adjunto del Maryland Institute College of Art (MICA), donde enseñó 'Introducción a la visualización de información' e imparte conferencias regularmente en importantes universidades norteamericanas y del exterior.

Cole tiene un grado en matemáticas aplicadas y un MBA por la University of Washington. Cuando no se encuentra limpiando el mundo de gráficos no efectivos, Cole aborda las aventuras de la maternidad de tres niños jóvenes junto con su marido en su casa del Medio Oeste y en viajes al extranjero.

Puedes conocer más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @storywithdata.

Ficha técnica:

EDITORIAL: Anaya Multimedia
AÑO: 2017 
ISBN: 978-8441539303
PAGINAS: 248