viernes, 31 de julio de 2020

El manual de Robotic Process Automation de Tom Taulli

'The Robotic Process Automation Handbook' es una visión panorámica' del mundo de las soluciones RPA, tanto desde un punto de vista funcional, como técnico, de negocio y de gestión.

El libro, de una extensión mediana tirando a corta, se estructura en trece capítulos como sigue:
  • '1. RPA Foundations:' Comienza definiendo lo que es RPA y contando, entre otras cosas, su historia y sus ventajas y desventajas.

  • '2. RPA Skills:' Aunque la palabra 'skills' parezca referirse a capacidades de personas no es así. Lo que examina en este capítulo son algunas características o tecnologías propias de este tipo de soluciones, como la posibilidad de ofrecerse desde la nube, la orientación 'low code', el uso de OCR (Optical Character Recognition), las bases de datos y la inteligencia artificial. Luego salta a otro tipo de elementos más relacionados con la gestión como son la gestión Agile en diferentes variantes frente a Waterfall, el uso de DevOps, o los flowcharts.

  • '3. Process Methodologies:' Un tercer capítulo en que el autor tiene el detalle, poco comun, de describir las metodologías de gestión de procesos de negocio y así se habla, por ejemplo, de Lean, de Six Sigma y de la convergencia de las dos: Lean Six Sigma.

  • '4. Planning:' Aborda algunos pasos previos a una iniciativa de RPA propiamente dicha como la decisión de acudir o no a una consultora externa, decidir qué automatizar, los casos de uso más adecuados o la estimación del ROI.

  • '5. RPA Vendor Evaluation:' Una serie bastante extensa de criterios y consideraciones a la hora de seleccionar al fabricante más adecuado, incluyendo, por ejemplo, las capacidades de la herramienta, el coste, la formación, el soporte, etc

  • '6. Center of Excellence (CoE):' Describe el concepto e importancia del centro de Excelencia RPA para luego pasar revista a los perfiles habituales: Analista, Desarrollador, Arquitecto de soluciones, supervisor RPA, etc

  • '7. Bot Development:' Proporciona algunas ideas sobre cómo se desarrolla un robot RPA, apoyado en la herramienta UiPath Studio.

  • '8. Deployment and Monitoring:' Comenta brevemente algunos aspectos relacionados ya con la operación de los robots una vez desarrollados como son las pruebas, la monitorizacion, la seguridad o el escalado.

  • '9. Data Preparation:' Un capítulo, en mi opinión, algo extemporáneo y fuera de lugar en que, con la excusa de la importancia de la analítica dedica un cierto espacio a hablar de Big Data y de la preparación de datos.

  • '10. RPA Vendors:' Un capítulo en que hace un buen barrido de los fabricantes más relevantes, incluyendo a UiPath, Automation Anywhere, Blue Prism, EdgeVerve, PEGA, Verint, WorkFusion, Nintex, Kofax, Softomotive, AntWorks, Intellibot, SAP Contextor, NICE, Kryon Systems y Servitrace.

  • '11. Open Source RPA:' Un repaso más breve pero también interesante de soluciones de fuente abierta. Primero comenta el modelo de negocio de la fuente abierta y sus pros y contras para luego describir brevemente OpenRPA, UI.Vision, Robot Framework, Robocorp, Orchestra y TagUI.

  • '12. Process Mining:' Un penúltimo capítulo dedicado a una de las tendencias más importantes en materia de investigación en gestión de procesos de negocio, el process mining, que alcanza ya también a las herramientas de RPA. Proporciona algo de background y luego repasa fabricantes y soluciones disponibles como Celonis, ProM, Signavio, Fluxicon o ABBYY.

  • '13. Future of RPA:' Un capítulo con once tendencias que el autor identifica en el campo de RPA.
A estos capítulos les siguen tres apéndices en que se habla, respectivamente, de consultoras, recursos y un glosario,

'The Robotic Process Automation Handbook' es un libro que da una idea bastante amplia y razonable de la situación de RPA. No profundiza mucho en lo técnico y funcional pero a cambio sí toca todos los aspectos relevantes de mercado, negocio y gestión. Un libro bastante correcto que arroja una visión algo más completa y equilibrada de lo habitual en este campo, el de la Automatización Robótica de Procesos, donde la literatura existente, al menos en este momento, es bastante pobre.

Sin ser excepcional ni brillante, creo que es lo mejor que he tenido oportunidad de leer hasta la fecha sobre RPA.

Tom Taulli

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Tom Taulli
Tom Taulli es un autor, conferenciante y asesor con foco en la tecnología. Ha co-fundado varías empresas, incluyendo Hypermart.net (vendida a InfoSpace), WebIPO y BizEquity.

Es colaborador de Forbes y autor de los libros 'Artificial Intelligence Basics: A Non-Technical Introduction' y 'The Robotic Process Automation Handbook: A Guide to Implementing RPA Systems'

Puedes saber más del autor visitando su página oficial o siguiéndole en Twitter donde se identifica como @ttaulli.

Ficha técnica:

lunes, 27 de julio de 2020

La eficiencia como deber moral

Vivimos en una época de creciente automatización de procesos y tareas. Y no solo ya tareas de naturaleza productiva del ámbito industrial u otros sectores primarios, usando para ello maquinaria pesada y robots industriales. La automatización alcanza también a los servicios, a las tareas de oficina, a los trabajos de 'cuello blanco' debido a la creciente digitalización, a la aparición y expansión de los robots software, al progreso y uso creciente de la inteligencia artificial.

Ante esa creciente automatización y, sobre todo, ante la perspectiva de que esa automatización crezca mucho más, surgen preguntas lógicas sobre en qué trabajaremos los humanos dentro de unos años, sobre cuál es el futuro del empleo, sobre si habrá trabajo para todos o, incluso, si será necesario instituir una renta básica universal ante una eventual ausencia de empleo suficiente para todas las personas o, al menos, una parte suficientemente relevante de ellas.

Y como siempre que aparecen miedos y temores, en este caso a la automatización, se puede provocar, creo que se provoca de hecho, un movimiento de cierta resistencia y un cuestionamiento de si avanzamos en la dirección adecuada o si debemos establecer medidas que de alguna forma condicionen ese avance de la automatización o que hagan 'pagar' a los robots, en forma de impuestos, esos trabajos humanos que hacen desaparecer.

Ya en otro artículo dí mi opinión, no favorable por cierto, al tema de los impuestos a los robots, pero en este artículo quisiera reclamar algo más. Quisiera hacer ver que la automatización y los robots lo que nos traen es sobre todo eficiencia y que esa eficiencia es buena. Y tan buena es que se trata no sólo de una bondad desde el punto de vista económico o productivo, sino que creo que la eficiencia es, si me apuran un deber ético, un deber moral.


¿Que es la eficiencia?


Dicho de forma muy simple, pero creo que adecuada, eficiencia es hacer más con menos. 

Es decir, la eficiencia significa producir más productos y servicios usando menos recursos (materiales, humanos, económicos). Evidentemente, también consideramos eficiencia producir más productos y servicios con los mismos recursos o también, consumir menos recursos para producir los mismos productos y servicios.Pero eso son simple matices.

Podemos decir que la eficiencia es una combinación de riqueza y frugalidad.


La riqueza


Cuando hablamos de producir productos y servicios en el fondo estamos hablando de generar riqueza. Porque los productos y servicios es todo aquello que los seres humanos necesitamos o deseamos y que por eso producimos. Productos y servicios son los alimentos, el vestido y el cobijo. Productos y servicios son los coches,  las carreteras, los servicios sanitarios y sociales. Productos y servicios son la educación, el deporte y el ocio. Productos y servicios son también la cultura y el arte. 

Más productos y servicios significa más riqueza, más verdadera riqueza. No se trata del dinero, que es un mero medio y representación de la riqueza, sino de satisfacción de todo aquello que como seres humanos necesitamos o anhelamos.

Y no se me ocurre ningún motivo por el que, si está en nuestra mano conseguirlo, no debamos crear más riqueza. Y no se me ocurre por tanto, ningún motivo válido por el que no debamos ser más eficientes, y con ello crear más riqueza.

¿No queremos más y mejores servicios sanitarios? ¿No queremos remedios y vacunas para las diversas dolencias? Pues eso es riqueza y se consigue más mediante la eficiencia. ¿No queremos servicios sociales? Pues eso es riqueza y se consigue más si somos eficientes. ¿No queremos viviendas para todos? Pues las viviendas son riqueza y se consiguen más si somos eficientes. ¿No queremos más y mejores alimentos? ¿No queremos acabar con el hambre en el mundo? Pues eso es riqueza, y se consigue más si somos eficientes. 

Permanecen, evidentemente, muchos problemas ligados a la riqueza que no se resuelven sólo con eficiencia. Podemos tener problemas como quizá desear cosas que no nos convienen del todo, pero yo me refiero a producir bienes y servicios que llamaré 'legítimos', aquellos que son buenos para el ser humano en su conjunto. Mucho más importante, tenemos el problema de, una vez que generamos la riqueza cómo la distribuimos de una forma justa, cosa que ciertamente hoy en día no está resuelto en absoluto. 

Esos son otros problemas que debemos atacar también y donde la eficiencia no nos va a ayudar. Pero, a pesar de ello, si podemos generar más alimentos debemos hacerlo, al menos mientras haya segmentos de población que no tienen lo suficiente. Si podemos conseguir viviendas dignas para todos, debemos hacerlo. Si podemos ampliar y mejorar coberturas sanitarias y sociales, debemos hacerlo. Y, por qué no, si podemos darnos más y mejores oportunidades de ocio y cultura, también debemos hacerlo. Si podemos generar más riqueza, así entendida, pues, debemos hacerlo.

Mientras no hayamos alcanzado un nivel de riqueza tal que se satisfagan todas las necesidades y deseos legítimos de todos los seres humanos es lícito y hasta casi obligatorio intentar generar esa riqueza adicional.

Y ya que la eficiencia nos ayuda a generar más riqueza, debemos buscarla. Y si tenemos los medios para ser eficientes, y por tanto para generar más riqueza y con ello ayudar a la humanidad en su conjunto a satisfacer sus necesidades y deseos, la eficiencia es una obligación, un obligación moral.


La frugalidad


La frugalidad es la otra cara de la eficiencia: el uso de un mínimo de recursos. Y eso es importante porque los recursos con que contamos son finitos.

Consumir recursos económicos en una cierta actividad nos impide utilizarlos en otra, es decir, nos impide generar más riqueza. Emplear más recursos económicos en una actividad concreta nos impide invertirlos en otra, y por tanto es una especie de 'riqueza cesante'. Emplear más recursos materiales no sólo nos impide darle otros usos, es que además desgasta a nuestro planeta, a nuestro medio ambiente. Incrementa y por tanto desgasta el uso de minerales, plantas o animales. Emplear más recursos es también emplear más energía que, no sólo podría tener usos alternativos sino que, además, hoy en día, en general se consigue por medios contaminantes. Y emplear más tiempo de personas no sólo implica que éstas no puedan realizar otras actividades productivas, sino también implica menos tiempo para los servicios a los demás, o para el ocio o el propio desarrollo personal en los ámbitos culturales o espirituales, por ejemplo.

¿No queremos aliviar el desgaste a que sometemos a nuestro planeta? Consumamos menos recursos, es decir, seamos más eficientes. ¿No queremos contaminar menos? Consumir menos materiales y menos energía contribuirá a ello, así que seamos eficientes en el uso de materiales y energía. ¿No es deseable dedicar más tiempo a atender a otras personas, quizá colectivos vulnerables como ancianos o enfermos? Pues para liberar tiempo de personas que se puedan dedicar a otras personas necesitamos ser más frugales, es decir, más eficientes en el uso de nuestro tiempo.  ¿No queremos más tiempo libre para nuestro ocio y desarrollo personales? Pues para eso necesitamos liberar horas de producción, necesitamos ser más eficientes.

No voy a ser inocente. También en este lado de la ecuación hay algún problema importante. La bondad de ser frugal en recursos económicos y materiales parece casi inapelable. Pero ahorrar en trabajo de seres humanos conlleva alguna dificultad no menor: ¿Qué pasa con el empleo? ¿Qué pasa con aquellos a los que una ola de automatización les 'pille con el pié cambiado' y sin posibilidad realista de reconversión profesional? Si, es cierto que a una automatización masiva convendría acompañarla quizá de ayudas sociales o, mucho mejor, con formación y reconversión, una formación a poder ser proactiva, que no espere a cuando el problema ya está encima. 

Pero la conveniencia de medidas concretas específicas para paliar algún efecto indeseable transitorio, no obsta para que la frugalidad y por tanto la eficiencia por sí mismas sean buenas: menos uso de recursos, más posibilidades de crear riqueza adicional, menor agotamiento del planeta, más tiempo para las personas...

Y si la frugalidad nos ayuda a tratar mejor a nuestro planeta y a regalarnos a nosotros más tiempo para otras actividades, debemos hacerlo. Y dado que eficiencia es frugalidad, debemos buscarla. Y si tenemos los medios para ser eficientes, y por tanto para aliviar la carga que imponemos a nuestro planeta y a nosotros mismos, la eficiencia es una obligación, un obligación moral.


En conclusión


Eficiencia es hacer más con menos. Eficiencia es crear más riqueza de una forma más frugal.

Eficiencia es, por tanto, satisfacer más necesidades y deseos (legítimos) de los seres humanos exigiendo menos al planeta y a los mismos seres humanos. De la eficiencia depende en buena medida, pues, el bienestar presente y futuro de la humanidad

Y así planteado, y sin ignorar, insisto, problemas colaterales a resolver como la distribución de la riqueza o problemáticas en el empleo, no existe ningún motivo lícito para no ser eficientes si tenemos el conocimiento y la tecnología para ello.

Y la eficiencia, por tanto, va más allá de una lógica meramente económica. La eficiencia es un deber. Un deber profundo. Un deber moral.

viernes, 24 de julio de 2020

Una profunda introducción al Procesamiento del Lenguaje Natural con Jacob Eisenstein

'Introduction to Natural Language Processing' es un extenso tratamiento de las técnicas usadas en el campo del procesamiento del lenguaje natural, con un enfoque muy algorítmico y matemático, aunque no elude los aspectos lingüísticos o un acercamiento a su empleo en la vida real.

Un libro de texto de rango universitario y quizá menos introductorio de lo que el título anticipa. Precisa, desde luego, de una importante base matemática y del hábito de leer expresiones algebráicas no necesariamente simples, así como de una lectura muy pausada (en realidad un estudio profundo con algunos repasos) si se quiere realmente asimilar el contenido.

El libro, bastante extenso, consta de 19 capítulos y dos apéndices, estructurados de la siguiente forma:
  • '1. Introduction:' Un primer capítulo introductorio con dos partes claramente diferenciadas: primero una serie de definiciones y conceptos y luego la presentación de tres temas transversales al procesamiento de lenguaje natural, a saber, aprendizaje versus conocimiento, búsqueda y aprendizaje y perspectivas relacional, composicional y distribucional.

  • 'I LEARNING:' Primera parte dedicada a la clasificación de palabras y el aprendizaje y que incluye los siguientes cuatro capítulos:

    • '2, Linear Text Classification:' Trata del tema de asignar una etiqueta a un texto dado y muestra métodos de naturaleza lineal. Comienza describiendo el concepto de 'saco de palabras' ('bag of words'). Luego muestra cómo se puede conseguir el etiquetado mediante Näive Bayes y alguna variante así como conceptos asociados. A continuación habla del aprendizaje discriminativo usando el perceptrón y Support Vector Machines. Luego salta a la regresión logística que combina ventajas de las dos orientaciones anteriores y termina hablando de optimización y de algunos otros temas relacionados con la clasificación.

    • '3. Nonlinear Classification:' Aunque hasta no hace tanto los métodos lineales eran suficientes e incluso más adecuados, en la actualidad están funcionando bien los no lineales. El autor comienza abordando redes neuronales, cómo se diseñan y cómo aprenden y dedica un espacio específico para hablar de la redes neuronales de convolución (CNN)

    • '4. Linguistic Applications of Classification:' Un poco como remate de los dos capítulos anteriores explica la aplicación específica de las técnicas de clasificación a diversas áreas lingüísticas como el análisis de sentimiento y opinión o la desambigüación del sentido de ciertas palabras. Y también aborda otras temáticas relacionadas como la evaluación de los clasificadores o la construcción de conjuntos de datos.

    • '5. Learning without Supervision:' Para terminar el espacio dedicado al aprendizaje, se tratan otras formas de aprendizaje sin supervisión como el aprendizaje no supervisado abordando algoritmos como K-means o Expectation-Maximization. También habla, además, del aprendizaje semi-supervisado.

  • 'II SEQUENCES AND TREES:' No se trata ahora de clasificar palabras sino de producir cadenas de palabras y a ello dedica seis capítulos:

    • '6. Language Models:' Menciona labores habituales en NLP en que la salida es una secuencia de palabras como es el caso de la traducción automática, reconocimiento del habla, realización de resúmenes o sistemas de diálogo. Comienza hablando de modelos de lenguaje de n-gramas para pasar luego a las redes neuronales recurrentes (RNN). También explica cómo evaluar estos modelos.

    • '7. Sequence Labeling:' En el etiquetado de secuencias se trata de asignar una etiqueta, no a una palabra, sino sobre una secuencia de ellas y se usa, por ejemplo, para asignar categorías gramaticales a palabras de una secuencia. Se presenta la forma de tratarlo como un problema de clasificación y también como de predicción de una estructura. Luego explica el algoritmo de Viterbi y también los Modelos Ocultos de Markov (HMM) o las soluciones discriminativas que usan características ('features'). Pasa luego a otros enfoques neuronales con redes recurrentes y finaliza con soluciones no supervisadas.

    • '8. Applications of Sequence Labeling:' Habla de algunos usos de etiquetado de secuencias y, en concreto, aborda temas como los atributos morfosintáctcos, el reconocimiento de entidades, la tokenización, la alternancia entre idiomas y los diálogos.

    • '9. Formal Language Theory:' Se ataca la teoría formal del lenguaje que define claes de lenguajes y sus características computacionales. En concreto, se tratan tres tipos de lenguajes: los lenguajes regulares (aquellos que se pueden definir mediante expresiones regulares), los libres de contexto (basados en gramáticas libres de contexto expresadas como tuplas) y los sensibles al contexto.

    • '10. Context-Free Parsing:' Mediante el 'parseado' se determina si una cadena puede derivarse de una gramática libre de contexto y cómo. Se explica el parseado determinista 'bottom-up', cómo tratar con la ambiguedad, las gramáticas libres de contexto ponderadas, refinamiento de gramáticas y algunas opciones más allá del parseado libre de contexto.

    • '11. Dependency Parsing:' Se trata el parseado dd dependencias, una técnica basada en grafos dirigidos para dilucidar cómo se relacionan las palabras. Se habla de la gramática de dependencia. , de cómo se parsea basándose en grafos dirigidos, el parseado de dependencia basado en transiciones y las aplicaciones del parseado de dependencias.

  • 'III MEANING:' Si en la parte anterior se buscaba reconstruir la sintaxis, en los temas que siguen se atacan aspectos de semántica, de significado. El análisis semántico busca convertir lenguaje natural en representaciones significativas.

    • '12. Logical Semantics:' Se comienza explicando los conceptos de significado y denotación para pasar luego a las representaciones lógicas del significado mediante lógica proposicional o lógica de primer orden. Luego se explica el parseado semántico y cómo aprenden los 'parsers' semánticos.

    • '13. Predicate-Argument Semantics:' Aborda una forma más ligera de significado que es la relación predicado argumento. Se explican los roles semánticos y cómo etiquetarlos y se finaliza con la representación abstracta de significado que utiliza una estructura de grafo.

    • '14. Distributional and Distributed Semantics:' Un capítulo dedicado a una técnica para encontrar significado de palabras no etiquetadas como puede ser en el caso de palabras desconocidas. La idea es que si ciertas distribuciones estadísticas de dos palabras son similares es que su significado también lo es. Explicada esa hipótesis se comentan ciertas decisiones de diseño respecto a la representación de palabras, el análisis de semántica latente y otras técnicas como el uso de los llamados 'word embeddings' en redes neuronales.

    • '15. Reference Resolution:' Las referencias, como por ejemplo el caso de pronombres, son una fuente de ambigüedad, no sólo para sistemas computacionales sino también para los propios hablantes. Este capítulo aborda las técnicas de resolución de esas referencias. Primero se estudian algunas formas de referencias para luego mostrar algunos algoritmos de resolución de co-referencias y algunas representaciones usadas. Se finaliza explicando cómo evaluar la resolución de co-referencias.

    • '16. Discourse:' Se finaliza esta parte hablando del discurso, es decir, textos que incluyen ya múltiples frases. Se habla fundamentalmente de la segmentación y de las relaciones.

  • 'IV APPLICATIONS:' Última parte con tres capítulos para sendas áreas de aplicación:

    • '17. Information Extraction:' Se habla de la extracción de entidades, relaciones y de eventos, es decir, situaciones que involucran a más de dos entidades. Luego se habla de cómo extraer información sobre situaciones hipotéticas o con un cierto nivel de probabilidad para pasar finalmente a la respuesta a preguntas y la lectura por máquinas.

    • '18. Machine Translation:' Sobre traducción automática se explica cómo hacerla como una tarea, cómo evaluar traducciones y cómo hacerla con enfoques estadísticos. Luego se habla de la traducción con redes neuronales como las LSTM. Se finaliza con el problema de la decodificación y del entrenamiento.

    • '19. Text Generation:' Se explican algunas variantes de la generación de texto como es el caso de la conversión de dato a texto, (por ejemplo, a partir de datos sobre el tiempo atmosférico, generar un texto que lo explique), la conversión texto a texto (como en la realización de resúmenes de textos) y diálogos (como los que exhiben chatbots y asistentes virtuales)

  • 'Appendix A: Probability:' Una descripción de ciertos conceptos estadísticos, incluyendo el teorema de Bayes.

  • 'Appendix B: Numerical Optimization:' Un esbozo de algoritmos de optimización como el descenso de gradiente.
'Introduction to Natural Language Processing' es un buen libro, probablemente muy bueno, con amplia cobertura de la temática del procesamiento de lenguaje natural, que aporta ejercicios y recursos adicionales y que explica con bastante corrección pero que a pesar de ello es de bastante compleja lectura porque en realidad no es un libro para leer sino para estudiar y partiendo de los fundamentos adecuados especialmente en matemáticas.

Muy recomendable, pues, para especialistas o estudiantes universitarios del ramo, pero no tanto para ejecutivos o simplemente curiosos.

Jacob Eisenstein

(Fuente: Traducción y ligera elaboración propia de su perfil en Github)

Jacob Eisenstein
Jacob Eisenstein es un científico investigador en Google. Su trabajo abarca una amplia gama de materias relativas a procesamiento de lenguaje natural, con foco en sociolinguística computacional, discurso y machine learning.

Antes de incorporarse a Google, fue profesor asociado en Ciencia de los Computadores en el Georgia Institute of Technology, donde recibió el NSF CAREER Award y el Air Force Office of Scientific Research Young Investigator Award.

Antes de su estancia en Georgia Tech, Jacob fue investigador posdoctoral en Carnegie Mellon, donde inició una línea de investigación usando métodos machine learning en variables latentes, para analizar datos de medios sociales y obtener conclusiones en sociolinguística y otras áreas de las ciencias sociales.

Completó su doctorado en el MIT en 2008, ganando el George M. Sprowls dissertation award por su investigación sobre modelos computacionales del habla y gestualzación.

La investigación de Eisenstein ha sido presentada en el New York Times, National Public Radio, y la BBC.

Puedes saber más del autor visitando su página personal o visitando su cuenta en Twitter donde se identifica como @jacobeisenstein.

Ficha técnica:

EDITORIAL: MIT Press Ltd
AÑO: 2019 
ISBN: 978-0262042840
PAGINAS: 536

Artículos de este blog relacionados

miércoles, 22 de julio de 2020

Algunas posibles tendencias en Automatización Robótica de Procesos


La Automatización Robótica de Procesos (RPA, 'Robotic Process Automation') es una de esas tecnologías que parecen estar en la boca de todos, en las rondas de financiación, en los informes de analistas, en los medios digitales dedicados a tecnología...

Se trata, además, de un mercado y una tecnología en plena ebullición y cambios.

¿Hacia dónde se dirige RPA?

Hoy he finalizado la lectura de 'The Robotic Process Automation Handbook' de Tom Taulli y este autor dedica el último capítulo de su obra para, precisamente, intentar identificar las tendencias que parecen dominar la evolución de RPA. Es un pequeño 'collage' donde se dan cita algunas tendencias de naturaleza tecnológica o funcional junto con otras más de negocio o de dinámica de mercado.

Cambiando algo el orden y con una ligera elaboración, estas son, en concreto, las tendencias que identifica Taulli:

  • Automatización atendida: En opinión de Tauli, RPA se ha dedicado hasta ahora fundamentalmente a los robots no atendidos, aquellos que funcionan de forma completamente automática pero, eso si, en general automatizando tareas más sencillas y previsibles. La tendencia esperada es un progresivo incremento de los robots atendidos que colaboran con personas en tareas más complejas y normalmente de front-office, en lo que a veces se denomina RDA, 'Robotic Desktop Automation'.

  • Compañías dedicadas a verticales: Taulli apuesta también por el florecimiento de compañías y productos no generalistas sino dedicados a sectores específicos como el de la atención sanitaria.

  • Software como servicio (SaaS): Una previsible, en realidad ya en marcha, transformación es la evolución de los productos 'on-premises' hacia soluciones en la nube y en modelo SaaS y pago por uso, dando lugar a la enésima sigla XaaS, a saber RaaS ('Robotics as a Service').

  • Open Source: Igualmente prevé un incremento de presencia de soluciones de código abierto como ya sucede en tantas y tantas áreas tecnológicas, especialmente en la nube.

  • Chatbots: Se identifican varios escenarios de interacción entre RPA y chatbots pero, en todo caso, siempre dominando una cada vez mayor interacción cuando no convergencia entre ambos tipos de robots.

  • Inteligencia Artificial: Se prevé, se está observando ya, el afán de los fabricantes por añadir más y más capacidades de inteligencia artificial en los robots RPA.

  • Escalado de RPA: Hasta ahora la mayoría de las implantaciones y adopciones de RPA son de pequeña escala. Llevar esa automatización a una escala de gran empresa es algo que no está claramente asegurado hoy día pero en lo que los fabricantes trabajan activamente.

  • Consolidación: Se constata que existen actualmente en el mercado más de 70 fabricantes con lo que lo razonable (en realidad creo que ya está empezando a ocurrir con algunas compras de cierto impacto) es una cierta consolidación del mercado.

  • Salidas a bolsa: Además de lo anterior, el autor entiende que todas las compañías importantes saldrán a bolsa como una forma no sólo de obtener fondos sino tambiñen como una muestra de solidez, fiabilidad y transparencia.

  • Microsoft y Power Automation: Un factor importante latente y que puede cambiar el tablero de juego es la opción que tome Microsoft, quien parece apostar por RPA a través de sus soluciones Power Apps y muy en concreto Power Automation.

  • Carrera profesional en RPA: Se constata también la necesidad de perfiles profesionales RPA y la carencia de estos en el mercado por lo que se prevé una explosión en la demanda de este tipo de perfiles.

  • Ética y privacidad: Existe una creciente preocupación por el uso de los datos en todo tipo de aplicaciones, especialmente las que incorporan Inteligencia Artificial, como puede ser el caso de RPA. Junto con esta preocupación existen una serie de problemas de naturaleza ética, no específicas de RPA sino más bien de todo el ámbito de la Inteligencia Artificial y la Automatización, que reciben ya mucha atención mediática y empiezan a verse las primeras acciones a nivel de análisis y regulación en gobiernos e instituciones como las europeas.

  • Factor 'Hype': El autor se pregunta en qué punto del 'Hype Cylce' de Gartner se encuentra RPA. Su opinión, que no parece disparatada, es que nos acercamos al famoso 'Peak on Inflated Expectations' es decir, al máximo de ruido mediático y expectativas exageradas a lo que, según Gartner, seguiría una cierta desilusión y disminución de inversiones... aunque con perspectivas posteriores de recuperación ya con expectativas más ajustadas a la realidad.

Una lista interesante de tendencias, sin duda, algunas muy claras y ya en marcha, otras más especulativas, pero todas fundamentadas. Ya veremos si son acertadas... y dado lo dinámico de este mercado, seguro que no tardaremos mucho en hacerlo.

viernes, 17 de julio de 2020

Mi libro "La Carrera Digital" en el programa "Emprende" de Radio Televisión Española

Esta semana el programa "Emprende" de Radio Televisión Española ha presentado mi libro "La Carrera Digital" dentro de su sección 'Biblioteca Emprende'.

Éste es el vídeo del programa. La mención a mi libro aparece en el minuto 5:15.


Emprende, dirigido y presentado por Juanma Romero, se autodefine como un programa sobre ideas, emprendedores, visionarios e inventores. Se emite en el canal 24 horas las madrugadas del Jueves al Viernes y siempre dedica algún minuto a recomendar libros de interés para emprendedores.

Compartiendo el libro con Juanma Romero
En esta ocasión, el libro presentado ha sido "La Carrera Digital" y, en el espacio que le han dedicado han destacado la necesidad de prepararse, de entrenarse. 

Es una reseña breve pero en un medio muy significativo con alcance nacional e internacional así que estoy, evidentemente, muy contento y satisfecho. Y quisiera, modestamente, expresar mi agradecimiento a su director, Juanma Romero con quien hace unos días compartía el libro y una amigable e interesante charla, por haber reservado en su programa un espacio para mi libro.

lunes, 13 de julio de 2020

Dos paradojas y media del término Robotic Process Automation


Robotic Process Automation, también conocida por sus siglas, RPA recoge un conjunto de soluciones de automatización que, reuniendo técnicas y tecnologías como el screen scraping, reconocimiento óptico de caracteres, procesamiento de lenguaje natural, visión artificial, desarrollo low-code, etc, consiguen ofrecer unas alternativas relativamente ligeras para la interacción con aplicaciones y documentos y, con ello, la automatización parcial de procesos de negocio. 

El término Robotic Process Automation, un término acuñado hacia 2012 por el evangelista de Blue Prism Pat Geary es, sin embargo, aunque probablemente acertado desde un punto de vista de marketing, no tanto desde el punto de vista conceptual y de caracterización de las soluciones que denomina.

Estoy leyendo el libro 'The Robotic Process Automation Handbook' de Tom Taulli y en su primer capítulo este autor identifica dos paradojas en ese término, dos paradojas que pueden confundir a las personas no duchas en la materia.

La primera se refiere a la palabra robótica ('robotic'). Esta expresión puede conducir a pensar en robots industriales o androides, robots en cualquier caso con un hardware y una clara realidad física. Y no, en el caso de RPA no hablamos de robots físicos sino lógicos, es decir de robots software o, simplemente, bots. Los robots de RPA son, pues, módulos software invisibles  a nuestros ojos si no fuera por los efectos que consiguen.

La segunda paradoja se refiere a la palabra proceso ('process'). Un proceso de negocio denomina una serie de tareas que, realizadas de forma coordinada, consiguen un resultado de interés para un negocio. Lo cierto es que los robots RPA, a despecho de lo que su nombre indica, no se centran habitualmente en automatizar procesos de negocio extremo-a-extremo sino, únicamente, en automatizar tareas, tareas concretas, tareas que forman parte, eso sí, de un proceso de negocio, pero que son sólo una parte de él.

Sólo nos queda pues, libre de paradoja la tercera palabra del término Robotic Process Automation, la palabra automatización ('automation'). Tom Taulli no dice nada de ésta, pero aquí voy a añadir de mi propia cosecha, la  media paradoja adicional. En realidad no hay nada incorrecto en usar la palabra 'automatización' para referirnos a los robots RPA. Sí, estamos hablando de automatización. Pero en cierta literatura algo superficial que he tenido ocasión de leer, parece que se llega a identificar esa palabra automatización con RPA y eso sí sería un error. Tecnologías de automatización de procesos de negocio y de tareas de procesos de negocio hay muchas, como suelo explicar en los cursos que imparto sobre RPA y robotización de procesos. Y RPA es sólo una de ellas. Cuidado con eso, especialmente quien pueda estar en disposición de decidir sobre un programa de automatización o de tranformación digital.

Tres palabras en un término  y dos paradojas y media en ese término. ¡Menuda proporción!

Como ocurre cada vez más en el campo tecnológico (y en el no tecnológico), se peca con frecuencia de superficialidad, de exceso de marketing y de un cierto, permítaseme la expresión, 'postureo tecnológico'. Es por eso importante estar avisados y esforzarse en comprender la verdadera naturaleza de las tecnologías y soluciones más allá de sus nombres y de la propaganda que las pueda rodear.

viernes, 10 de julio de 2020

Explorando un futuro quizá imprevisible con Marta García Aller.

'Lo imprevisible' es una obra que explora las implicaciones qur fundamentalmente la tecnología tiene en los cambios que observamos en nuestro mundo y que intuimos para el futuro, algunos quizá más previsibles y otros no tanto, o no en absoluto.

Un libro al que, en apariencia, la crisis sanitaria del COVID19, quizá un claro caso de imprevisibilidad o, tal vez imprevisión, ha afectado, no sólo en su plan de publicación sino también en parte en los contenidos, y que comienza, de hecho, con un capítulo introducción dedicado precisamente a la pandemia y su presunta 'imprevisibilidad'.

A continuación, el cuerpo del libro se estructura en trece capítulos, agrupados en dos partes según el nivel de imprevisibilidad de los fenómenos que describe:
  • 'PARTE PRIMERA. DE MENOS IMPREVISIBLE...': La parte dedicada a los fenómenos más previsibles y que incluye siete capítulos:

    • '1. Los viajes. De cómo los mapas empezaron a dibujar el mundo inventándose lugares y ahora lo difícil será perderse': Donde habla del GPS o Google Maps pero también del vehículo autónomo.

    • '2. Los gustos. Sobre la paradoja de las mermeladas y el lado oscuro de los datos': Donde se aborda el big data y la previsibilidad de los comportamientos humanos y algunas de las paradojas de ese comportamiento humano, como la dificultad de elegir ante la abundancia de opciones o el mal uso de métricas. También se abordan algunas problemáticas derivadas de confiar en los algoritmos.

    • '3. La seguridad. De cómo un seudónimo bastaba para escapar de la policía y ahora el coche en el que viajas puede secuestrarte': Menciona el reconocimiento facial y los sistemas biométricos y su uso, por ejemplo, para facilitar pagos pero también en el ámbito policial.

    • '4. La confianza. De cuando sustituimos la intuición por las estrellitas para elegir hoteles y hasta quién cuida del bebé-': Habla de los mecanismos de valoración social de servicios como TripAdvisor incluyendo su mal uso. También se comentan temas como el modelo de crédito social chino o el derecho al olvido en entornos digitales.

    • '5. El amor. De cómo se fabrica una esposa por encargo, la gente se enamora de Siri y el sexo con robots todavía no es infidelidad.': Habla de relaciones sexuales y/o afectivas de humanos con entes digitales como robots u hologramas y también de cómo plataformas como Tinder median cada vez más en las relaciones humanas.

    • '6. La impaciencia. De por qué echaremos de menos el aburrimiento y más que superhumanos parecemos hamsteres.': Se adentra en cómo el uso de internet, medios sociales y smartphone está modificando nuestros comportamientos, con una conexión y actividad permanente, lecturas cortas y sin tiempo para el aburrimiento, etc

    • '7. La salud. De cómo saber si alguien será calvo, bajito o psicópata y en la primera cita vigilaremos la saliva.': Habla de los avances en genética y las implicaciones no sólo para evitar problemas y para una medicina personalizada sino también para unos escenarios más distópicos como el uso de la información genética para selección en el trabajo, la pareja o la modificación/selección de los hijos.

  • 'PARTE SEGUNDA. ... A MÁS IMPREVISIBLE': Donde se tratan los temas que, a juicio de la autora, son menos previsibles y que incluye seis capítulos:

    • '8. El empleo. De cómo un algoritmo decide qué va a ser tu hijo de mayor y los abuelos del futuro jugaremos a la brisca con robots.': Habla fundamentalmente de robots y sus implicaciones en el empleo y también se tratan los tests para orientación en futuro profesional.

    • '9. La naturaleza. De cuando dejamos de mirar al cielo para saber si está llviendo y empezamos a temer por el vino del futuro.': Se comienza con la predicción atmosférica para luego saltar a otros temas como el impacto en la producción de vino o qué hacer ante los cambios que estamos induciendo en la naturaleza.

    • '10. La justicia. De cómo la policía calcula dónde se va a cometer el próximo crimen y un juez automático decide la libertad condicional': Habla de predicciones pero en este caso aplicadas a la delincuencia y también a las sentencias del ámbito judicial y se aborda igualmente la problematica de los sesgos y la detección de mentiras.

    • '11. La verdad. De por qué no nos vamos a fiar de nuestros propios ojos y los vídeos de gatitos amenazan la democracia.': Entra en la problemática que genera el deep fake y la abundancia de información falsa en la red e y también del empleo de estos fenómenos a nivel político y estratégico.

    • '12. La estupidez. De por qué la inteligencia artificial no tiene sentido común y, en realidad, muchos humanos tampoco.': Habla de la dificultad para conseguir que los algoritmos de Inteligencia Artificial exhiban el llamado sentido común pero también resalta algunos comportamientos humanos en que ese sentido común tampoco parece estar presente. Se destaca cómo los algoritmos suelen estar muy especializados y ser muy buenos en una tarea concreta pero realmente muy flojos para otras.

    • '13. El humor. De por qué las máquinas no se ríen de los chistes, pero van a fabricarlos y cómo la ironía puede salvar el mundo.': Como cierre, se habla del humor y cómo se trata de un aspecto muy característico del comportamiento humano y que, pese a intentos importantes, no se ha conseguido aún en entes artificiales.

En 'Lo imprevisible' no nos encontramos ante un libro de texto, sino ante un libro de pura lectura, una obra con un cierto cariz anecdótico y periodístico, como corresponde a la profesión de la autora, donde abundan las menciones a empresas y personajes visitados o entrevistados por la autora, y abundancia de historias, anécdotas y curiosidades.

Un libro ligero, dinámico, ameno, chispeante, no para estudiar sino para leer cómodamente y disfrutar mientras se descubre y se reflexiona sobre cómo la tecnología está transformando nuestras vidas y cómo continuará haciéndolo en un futuro, un futuro probablemente imprevisible.

Marta García Aller

(Fuente: Wikipedia)

Marta García Aller
Marta García Aller (Madrid, 1980), es una profesora, periodista y escritora española.

Estudió Humanidades y Periodismo en la Universidad Carlos III de Madrid. Realizó un máster en política europea en la Universidad de Bath (Reino Unido). Antes de incorporarse a El Independiente, diario en el que trabaja desde su fundación, pasó por las redacciones de la BBC en Londres, El Mundo, Actualidad Económica y la agencia Efe. Colabora con La Brújula, de Onda Cero, como analista de economía y cronista de la actualidad. Desde 2010 es profesora asociada del IE School of Human Sciences and Technology del IE Business School.​

Desde 2018 colabora en el programa de radio Por fin no es lunes, de Onda Cero.

También en Onda Cero, presenta de lunes a viernes la subsección El mundo que no duerme de La España que madruga, sección de Más de uno, el programa matinal de la cadena, dirigido por Carlos Alsina.

En prensa escrita, es columnista habitual del diario digital español El Confidencial.

Puedes saber más del autora visitando su perfil en LinkedIn o visitando su cuenta en Twitter donde se identifica como @GarciaAller.

Ficha técnica:

EDITORIAL: Planeta
AÑO: 2020 
ISBN: 978-8408221708
PAGINAS: 352

Artículos de este blog relacionados

viernes, 3 de julio de 2020

Acompañando a Antonio Damasio en su viaje neurocientífico desde las células a los sentimientos, la conciencia y la cultura humanos

'The strange order of things' es una obra en que el popular neurocientífico, Antonio Damasio intenta, creo, resumir todo su estudio y pensamiento hasta la fecha. Se trata de una especie de recorrido histórico-evolutivo en que partiendo del origen mismo de la vida, los organismos unicelulares, recorre etapas evolutivas hasta la aparición del ser humano y sus más altas creaciones como la cultura, el arte o las religiones. Y como motor de todo ello, la denominada 'homeostasis', el mecanismo por el que un ser se regula a sí mismo para mantenerse en condiciones compatibles con su propia supervivencia. Y también muy importantes en el discurso los sentimientos que son las percepciones de un ser sobre sí mismo, sobre su propio cuerpo, y su bienestar o malestar, el dolor o el placer, es decir, la percepción subjetiva de una criatura dotada de mente, acerca del estado de la vida, su vida.

El libro se estructura en trece capítulos agrupados en tres partes, como sigue:
  • PART I - ABOUT LIFE AND ITS REGULATION (HOMEOSTASIS)
    • 1. On the human condition
    • 2. In a region of unlikeliness
    • 3. Varieties of Homeostasis
    • 4. From single cells to nervous systems and minds

  • PART II - ASSEMBLING THE CULTURAL MIND
    • 5. The origin of minds
    • 6. Expanding minds
    • 7. Affect
    • 8. The construction of feelings
    • 9. Consciousness

  • PART III - THE CULTURAL MIND AT WORK
    • 10. On cultures
    • 11. Medicine, inmortality and Algorithms
    • 12. On the human condition now
    • 13. The strange order of things

Tras los tres capítulos iniciales en que explica conceptos fundamentales como el de homeostasis y donde anticipa ya un poco toda la línea argumental del libro, en el cuarto capítulo comienza esa especie de recorrido evolutivo hablando de las bacterias y su forma de superviencia. En la evolución destaca como punto importante la aparición de los sistemas nerviosos que ponen al cerebro en contacto con el resto del cuerpo, permitiendo, no sólo enviar órdenes sino también percibir y monitorizar el estado de ese cuerpo y empezar a formarse imágenes del mismo. La combinación de imágenes tanto de aspectos metabólicos como también de esqueleto y músculos, habilita la creación de mentes conscientes.

A partir de ahí, y ya en la segunda parte, se añaden otros elementos como la percepción del mundo exterior, la formación de imágenes acerca del mismo y la construcción de lenguajes. El autor da mucha importancia a los sentimientos ('feelings') que entiende como una imagen interna del estado del cuerpo, y con una función homeostática en el sentido de ayudar a su regulación intentando generar sentimientos agradables. Y aparece la conciencia que proporciona al ser que la posee una experiencia privada de sí mismo y el mundo que le rodea, siendo esa subjetividad y visión integrada características definitorias a las que se unen características como estar despierta, alerta, enfocada y orientada al tiempo y el espacio.

En la tercera parte del libro se salta a aspectos que trascienden al individuo para llegar a una dimensión más social. En esa parte del camino, se apunta de nuevo a una función homeostática en el sentido de que las culturas surgen para gestionar los afectos, los cuales se relacionan a su vez con los sentimientos y estos con el cuerpo y su estado. Y así, en último término, la cultura está al servicio de intentar alcanzar unas mejores condiciones para la vida. A partir de ahí se enlaza con el arte o con la religión. Sin embargo, la cultura humana presenta la particularidad de que, a pesar de su origen homeostático, puede llegar a ignorar su origen genético e intentar un mayor control de su propio destino. En esta parte, el libro resulta algo más especulativo, aunque sin perder su estilo ordenado, razonado y de discurso coherente.

'The strange order of things' es un libro muy interesante y con una teoría ordenada que va asentando unos conceptos sobre los anteriores, muy especialmente en los primeros capítulos del libro. No se trata una lectura demasiado compleja aunque en cierto modo esa sencillez es engañosa: cada paso, cada frase o párrafo, parece comprenderse bien pero, sin embargo, aprehender todos los conceptos y todo el hilo argumental no es tan sencillo. Por otro lado, la calidad explicativa es buena o muy buena, pero de vez en cuando me ha parecido percibir pequeños saltos en el vacío en que no he logrado entender por qué una cosa llevaba a otra. No sé si han sido limitaciones propias, si es que realmente algún paso no estaba suficientemente explicado o si es que realmente existan algunas lagunas en el razonamiento de Damasio.

En cualquier caso, un libro muy, muy interesante.

Antonio Damasio

(Fuente: Wikipedia)

António C. R. Damásio (Lisboa, 25 de febrero de 1944) es un famoso médico neurólogo de origen portugués.

Antonio Damasio
Damasio estudió medicina en la Facultad de Medicina de la Universidad de Lisboa, donde realizó también su rotación como residente y completó su doctorado. Más tarde, se trasladó a los Estados Unidos como investigador visitante durante seis meses en el Aphasia Research Center (Centro para la investigación de las afasias) en Boston. Allí, su trabajo sobre neurología del comportamiento estuvo bajo la supervisión de Norman Geschwind.

Es profesor de la cátedra David Dornsife de Psicología, Neurociencia y Neurología en la Universidad del Sur de California, donde dirige el Institute for the Neurological Study of Emotion and Creativity de los Estados Unidos (Instituto para el estudio neurológico de la emoción y de la creatividad). Antes de llegar a este puesto universitario, en 2005, Damasio fue profesor de la cátedra M.W. Van Allen y Jefe de Neurología en el Centro Médico de la Universidad de Iowa. Su carrera en Iowa se prolongó entre 1976 y 2005. Además de ser un conocido investigador en varias áreas de las neurociencias, es un autor de éxito de libros de ciencia de tipo divulgativo.

Está casado con Hanna Damasio, colega y co-autora de varios de sus libros.

Ficha técnica:

EDITORIAL: Vintage
AÑO: 2018 
ISBN: 978-0307908759
PAGINAS: 336

miércoles, 1 de julio de 2020

Los algoritmos de Inteligencia Artificial sí saben explicarse


La afirmación puede parecer sorprendente e incluso atrevida o equivocada, para todo aquel interesado en los aspectos éticos y jurídicos de la Inteligencia Artificial porque, el consenso existente es que los algoritmos de Inteligencia Artificial, muchos de ellos al menos, actúan como 'cajas negras' y no pueden explicar cómo 'toman sus decisiones'. Y el interés, que puede llegar a convertirse en ley, en que los algoritmos puedan hacer patentes sus lógicas, da lugar a una disciplina subconjunto de la Inteligencia Artificial, la 'explainable AI' que busca, precisamente, que los humanos podamos entender y, por tanto, valorar, juzgar y, en su caso, desestimar o corregir, el razonamiento seguido por el algoritmo para llegar a sus conclusiones. 

Pues hoy, tras un rato de reflexión sobre la materia, he llegado a una conclusión previa, una conclusión que desafía esa concepción de que los algoritmos de la inteligencia artificial no saben explicarse. Mi conclusión es que, bien al contrario, los algoritmos de la inteligencia artificial sí que pueden explicarse, pueden explicarse perfectamente.

Antes de que a ningún lector le de un 'infarto intelectual', hago un pequeño 'spoiler' y ya anuncio que, antes de acabar el artículo haré un matiz a esa afirmación, un matiz muy importante, que hace que, a pesar de lo que digo, tenga pleno sentido la existencia y desarrollo de esa disciplina de la 'explainable AI' y deja abierto el debate del interés o necesidad de exigir esa explicabilidad en según qué casos.

Vamos a ir poco a poco. Empecemos por entender un poco más a los algoritmos


Algoritmos de Inteligencia Artificial


Quiero lo primero advertir que la Inteligencia Artificial es una disciplina que agrupa algoritmos bastante heterogéneos. No conozco el detalle de todos los algoritmos de los que he leído o he estudiado, y seguro que existen algunos de los que ni siquiera tengo noticia. Pero lo que aquí digo creo que encaja con la mayor parte de los algoritmos populares incluidos dentro del llamado 'machine learning' y, por si acaso, además, advierto que en mi cabeza tengo sobre todo las redes neuronales y el deep learning. Si algún lector conoce algoritmos que cuestionan seriamente lo que aquí digo, estaré más que encantado de 'escuchar' comentarios y enmiendas.



Como explico en mi libro "La Carrera Digital", los algoritmos de inteligencia artificial, en general, podemos entender que se componen de dos partes o subalgoritmos: el de cálculo, el algoritmo propiamente dicho, el que calcula 'cosas' y es el que al final, reconoce imágenes, o textos, o intenciones de un hablante, o su rostro o analiza si está capacitado o no para un trabajo. Y el otro subalgoritmo, el de aprendizaje, el que hace que los algoritmos de inteligencia artificial aprendan, ya sea durante toda su vida o durante una fase acotada de entrenamiento, modificando para ello parámetros que afectan al funcionamiento del subalgoritmo de cálculo.


Determinismo



En cualquier caso, tanto un subalgoritmo como el otro son perfectamente deterministas (solo se me ocurre una familia de algoritmos, los algoritmos genéticos, donde la aleatoriedad juega un papel relevante). El que sean deterministas quiere decir que ante la misma entrada produce, siempre, la misma salida... eso sí, siempre no se haya producido entrenamiento adicional entre entrada y entrada.

Así, por ejemplo, una red neuronal típica, como un perceptrón multicapa, una vez definidos el número y tipo de capas, su conectividad, las funciones de activación de las neuronas, etc tiene como parámetros principalmente, los pesos que matizan las entradas a cada neurona. Para una combinación concreta de pesos, la salida de la red ante una entrada es absolutamente determinista. El subalgoritmo de aprendizaje, por ejemplo el famoso 'gradient descent', una vez marcadas algunos aspectos como la función de error o el optimizador a usar, es, de nuevo, plenamente determinista, y ante un valor determinado de error produce una actualización absolutamente predecible de los pesos de la red.


Cómo razona un algoritmo



Los detalles dependen del algoritmo pero, simplemente, aplica su subalgoritmo de cálculo... un algoritmo  que seguirá unas transformaciones lógico-matemáticas y que, según acabamos de mostrar, es plenamente determinista... y, además, perfectamente conocido por el desarrollador o científico de datos.

Lo voy a repetir por si no se ha apreciado suficientemente lo que he dicho: un algoritmo plenamente determinista y perfectamente conocido por su desarrollador o científico de datos.

En el caso de una red neuronal típica, las neuronas de la capa de entrada tomarán los valores de las variables de entrada, las multiplicarán por sus pesos, probablemente sumen esos productos en la llamada función de transferencia, y luego pasen esa suma por una función que podría ser, por ejemplo, la sigmoidea generando su valor de salida. Eso por casa neurona de la capa de entrada...cuyas salidas constituirán las entradas de la siguiente capa según un patrón de conexión perfectamente definido. Y este proceso se repetirá hasta pasar por todas las capas y tener los valores de salida en las neuronas de la capa de salida, lo cual será la codificación de la solución propuesta por la red. 


El algoritmo nos cuenta su vida



¿Qué cómo explica sus decisiones un algoritmo? Sencillísimo: explica las variables que tiene como entradas y las transformaciones lógico-matemáticas que ha hecho para llegar al valor de las variables de salida. Punto. Así ha razonado. Así ha 'tomado su decisión'. No hay más. De verdad.

Imaginemos que nuestra famosa red neuronal se dedica al reconocimiento de imágenes clasificándolas en tipos de animales (perro, gato, vaca,...). Y ahora esa red 'se anima' y de modo relajado nos cuenta su vida y cómo razona cuando se lo pedimos. ¿Qué nos contaría?

Algo como esto:

"Verás, mi creador, me diseño con X capas de Y neuronas. En la capa de entrada recojo H variables que entran en mis neuronas de tal y tal manera. Una vez 'me contó' que esas variables eran los niveles RGB de los píxeles de una imagen pero, si te digo la verdad, a mí eso me da un poco igual. Como puedes ver, en mi capa de salida hay Z neuronas. Mi creador me ha dicho que cada una de esas neuronas, cuando se activa, representa una clase de animal pero, sinceramente, eso tampoco me importa mucho. Y luego me diseño con el algoritmo de procesamiento de cada neurona y capa. Te cuento la forma en que calculo es....

Durante una temporada me estuvo entrenando y me decía, ¿ves esta imagen? Pues es un tal o un cual. Y yo ajustaba mis pesos según la función de error y el optimizador de que estoy constituida, para intentar mejorar y hacerlo cada vez mejor. Y, tras miles de ejemplos, mi creador me dijo que ya estaba preparada, que ya clasificaba muy bien.Y yo le creo porque lo cierto es que ya la función de error daba siempre valores irrisorios.

Asi que, ¿qué he hecho con esos datos que me has puesto como entrada? He supuesto que son una imagen, he extraído sus píxeles y sus valores RBG, se los he 'enchufado' a las neuronas de entrada y he calculado la salida, capa a capa, como te he explicado. ¿Quieres saber los pesos que he aplciado? 'No problem', son estos ¿ves? Ya está. Clarísimo, ¿verdad?"

Y una red que tomase decisiones más delicadas como qué candidato es más adecuado en un proceso de selección, o si se debe condenar o no a una persona, o qué decisión debe tomar el vehículo autónomo que controla, se 'explicaría' de forma parecida.

Y esa explicación. si el algoritmo es mudo, nos la puede dar perfectamente su desarrollador quizá con un pequeña ayuda informática para saber el valor exacto de los pesos y recordar la topología detallada de la red y sus hiperparametros.

Si, la red, como cualquier algoritmo, explica de forma clara e inapelable cómo razona.

No hay magia. No hay voluntades ocultas. No hay misterio. Sólo hay transformaciones lógico-matemáticas matizadas y optimizadas durante el aprendizaje. Y el algoritmo, o el desarrollador en su nombre nos las pueden contar, perfectamente.

Se acabó el problema ¿no?

Pues no, por desgracia no se acabó el problema. El algoritmo, en efecto, se explica, pero seguimos tendiendo un problema,

¿Cuál es el problema? La necesidad de la 'explainable AI'


El problema es que no entendemos al algoritmo. No, mejor dicho aún, el problema es que queremos que nos explique su funcionamiento de otra forma, como a nosotros nos conviene.

El algoritmo, funciona en términos lógico-matemáticos de una forma determinista y perfectamente explicable y conocida. Pero nosotros queremos una explicación que voy a llamar simbólico-lingüística.

¿Qué quiero decir con esto de simbólico-lingüística?

No sabemos realmente cómo funciona nuestro cerebro. No sabemos si su operativa interna se parece a las redes neuronales o no. Pero lo que sí sabemos, por nuestra propia experiencia, es que cuando los seres humanos explicamos nuestra forma de razonar y decidir, y cuando lo plasmamos en nuestras conversaciones, nuestros informes, nuestras leyes y nuestras sentencias no lo hacemos, desde luego, en términos matemáticos, ni siquiera de impulsos eléctricos o transformaciones químicas. Lo hacemos utilizando símbolos o imágenes de la realidad que se expresan habitualmente en forma de lenguaje y con una lógica del estilo de la lógica proposicional.

Y queremos que el algoritmo nos explique sus razonamientos en esos términos simbólico-lingüísticos. Pero el problema es que el algoritmo ha razonado de otra forma completamente distinta.

Cuando el algoritmo trabaja para reconocer imágenes como las de los animales, o los dígitos de la matrícula, o incluso para que nos haga la predicción del tiempo de mañana, nos importa bastante poco cómo razona siempre que acierte. En ese caso sólo nos importa la efectividad y, quizá, la eficiencia. Nada más.

Pero si el algoritmo lo utilizamos para aprobar o rechazar un préstamo, para seleccionar un candidato u otro para una empresa o para un ascenso, o si empleamos el algoritmo o para condenar o no a un acusado, la cosa cambia. Porque son asuntos que nos importan mucho. Y porque son cosas en que no está clara cuál es la solución acertada y si el algoritmo (ni siquiera la persona) acierta o no acierta. 

Así que, en estos casos, no nos conformamos con la efectividad y la eficiencia. 

Y queremos una explicación que entendamos, que nos convenza y que podamos valorar, evaluar y, en su caso, desestimar. Y no queremos números ni matemáticas, queremos lenguaje y lógica proposicional.

Ese es el problema.

Y el reto, el verdadero reto, es averiguar, por un lado, si existe alguna traducción posible entre el razonamiento lógico-matemático del algoritmo y el simbólico-lingüístico de las personas, lo cual no es evidente Y, en caso de que exista, esa traducción, encontrar la forma de conseguirla Y, si no existe, que puede ocurrir, pensarnos muy bien qué hacemos.

En conclusión


Así que, como anunciaba, mantengo mi tesis de que "los algoritmos de inteligencia artificial sí saben explicarse, pero añado un matiz, no como los humanos entendemos y, sobre todo, no como a los humanos nos gustaría".