miércoles, 1 de diciembre de 2021

Una definición y un par de razones para el machine learning

El machine learning es, hoy en día, el subconjunto dominante, o al menos el que más atención en medios recibe, dentro de la inteligencia artificial

Aunque existe muchísima literatura, de todo tipo de pelajes y calidades al respecto, me imagino que, según la persona, según su 'background', según sus fuentes y según su propio interés, la comprensión real de lo que el machine learning es, puede ser muy diferente.

En este sencillo post quería recoger un par de ideas que me encuentro en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig y que me han gustado y parecido valiosas por lo simples que resultan, por su entiendo fácil comprensión, manteniendo sin embargo el acierto y la fidelidad al concepto y su realidad.


El concepto de aprendizaje


La primera idea es una definición simple, una definición que casi, casi, es una definición de machine learning aunque, en realidad, es algo más general, para poder referirse a aprendizaje en general. A lo largo de todo su libro, Russell y Norvig nos hablan de agentes, unos agentes que, por tratarse de sistemas de inteligencia artificial, son sistemas artificiales y sistemas fundamentalmente software.

Pues bien, cuando empiezan en su libro a hablar de machine learning, en lo primero que se detienen es en decir qué es eso de aprendizaje y lo que nos cuentan es, simplemente, que:


An agent is learning if it improves its performance after making observations about the world.


Mejorar el desempeño a partir de observaciones sobre el mundo. Es una forma muy compacta y probablemente muy acertada de explicar en qué consiste aprender. Aunque hablamos de machine learning, es posible que esta especie de definición pudiera ir más allá y aplicar a otro tipo de agentes (¿incluidos los humanos?) ... pero al menos en este artículo lo vamos a dejar aquí.


Razones para el machine learning


Y la otra idea que me gusta como expresan los autores, apenas unas líneas más abajo, es el motivo para el machine learning, por qué acudir a este tipo de técnicas con todo el acervo de algoritmos y estrategias existentes. Y nos aportan dos razones simples:


  • Porque a veces los diseñadores de algoritmos no pueden anticipar todas las situaciones futuras

  • Porque en ocasiones los diseñadores no tienen ni idea de cómo programar la solución ellos mismos


La primera razón sirve un poco de comparativa a otro abundante tipo de algoritmos, a los cuales dedican una grandísima extensión en su libro, que, con muchas diferentes variantes, lo que hacen de alguna forma es buscar la solución entre un espacio de estados posibles conocidos. 

Existen muchas variantes según si esa búsqueda y esos estados son ciertos o probabilistas, sobre si tenemos observaciones del mundo exterior o no, sobre si estamos interactuando o compitiendo o no con otros agentes pero, en cualquier caso, existe un espacio conocido de estados posibles. Lo que nos están diciendo Russell y Norvig es que el machine learning se utiliza cuando no podemos siquiera anticipar esos estados o soluciones posibles.

Quizá más interesante o más definitoria aún, me resulta la segunda razón. Los algoritmos 'normales', y no me refiero sólo a los de inteligencia artificial sino también a reglas de negocio o incluso algoritmos más simples, el desarrollador se sabe las reglas a seguir para obtener la solución y las puede programar de manera explícita (como se programan siempre los ordenadores, por cierto).  

Pero los problemas que aborda el machine learning, muchos de los que aborda la inteligencia artificial, son problemas para los que los humanos no sabemos proporcionar reglas explícitas sobre cómo se resuelve incluso cuando, en muchos casos, los humanos sabemos hacerlo de manera sencilla cuando nos toca a nosotros (visión, escucha, ambigüedades del lenguaje...). 

Así que, si no sabemos proporcionarle las reglas, lo que hacemos es proporcionar un modelo general y reglas sobre cómo aprender... pero dejamos que sea el agente de machine learning el que aprenda por sí mismo, el que descubra patrones y, de alguna forma, esas reglas que no hemos sabido proporcionarle.


Conclusión


¿Sirven estas ideas para clarificar al lector lo que hace y por qué el machine learning? Espero que sí. A mi, por lo menos, me ha gustado mucho la forma compacta y directa de expresarlo.


martes, 30 de noviembre de 2021

Navegando los modelos de negocio con Gassmann, Frankenberger y Choudury

'The business model navigator' es un libro sobre innovación en modelos de negocio, una innovación que los autores conciben, en buena medida, como el conocimiento y reutilización de patrones de modelos de negocio exitosos. El libro ofrece, por un lado, una metodología de trabajo para la innovación en modelos de negocio y, por otro, un amplio catálogo de patrones de modelos de negocio de éxito reconocibles en la industria.

La estructura del libro es un poco particular. Incluye tres partes. La primera, más parecida a un libro tradicional, incluye tres capítulos en que se explica el enfoque y la metodología. La segunda parte es un extenso catálogo de patrones de modelo de negocio con un breve espacio dedicado a explicar cada uno. Y la tercera parte, bastante breve, simplemente da unas recomendaciones finales. Según esto, la estructura queda como sigue:
  • 'PART ONE: HOW TO DRIVE BUSINESS MODEL INNOVATION'

    • '1. What is a business model and why should it be innovated?' capítulo introductorio en que explican las partes de un modelo de negocio (WHO-WHAT-HOW-VALUE) y el concepto e importancia de la innovación en modelos de negocio así como los tres grandes retos que implica: (1) pensar fuera de la lógica dominante dentro del sector, (2) pensar en modelos de negocio más que en tecnologías o productos y (3) el uso de herramientas sistemáticas.

    • '2. The Business Model Navigator' Capítulo esencial que explica la metodología de innovación propuesta por los autores. Tras resaltar la importancia de la imitación creativa, es decir, la reutilizacion de patrones de éxito existentes para construir una solución innovadora propia, desarrollan su metodología con cuatro fases: (1) Iniciación: análisis del ecosistema; (2) Ideación: generación de nuevas ideas; (3) Integración: asegurar la consistencia del modelo de negocio y (4) Implementación: probar y optimizar.

    • '3. Managing change' orientado a la implementación y sobre todo a la gestión del cambio, para lo que proponen definir un plan de acción, definir objetivos y estructuras y construir capacidades (equipo, cultura, etc)

  • 'PART TWO: 55+ WINING BUSINESS MODELS - AND WHAT THEY CAN DO FOR YOU' Una segunda parte que en realidad es un catálogo de 60 patrones de modelos de negocio. Por cada patrón se aporta una breve descripción de en qué consiste, una breve reseña acerca de sus orígenes, otra breve identificación de empresas u organizaciones que lo implementan de manera exitosa y unas indicaciones acerca de cuándo resulta conveniente usarlo incluyendo algunas preguntas clave que hacerse. Los patrones de modelo de negocio que se describen son:

    • 1 Add-On
    • 2 Affiliation
    • 3 Aikido
    • 4 Auction
    • 5 Barter
    • 6 Cash Machine
    • 7 Cross-Selling
    • 8 Crowdfunding
    • 9 Crowdsourcing
    • 10 Customer Loyalty
    • 11 Digitalisation
    • 12 Direct Selling
    • 13 E-commerce
    • 14 Experience Selling
    • 15 Flat Rate
    • 16 Fractional Ownership
    • 17 Franchising
    • 18 Freemium
    • 19 From Push to Pull
    • 20 Guaranteed Availability
    • 21 Hidden Revenue
    • 22 Ingredient Branding
    • 23 Integrator
    • 24 Layer Player
    • 25 Leverage Customer Data
    • 26 Licensing
    • 27 Lock-In
    • 28 Long Tail
    • 29 Make More of It
    • 30 Mass Customisation
    • 31 No Frills
    • 32 Open Business
    • 33 Open Source
    • 34 Orchestrator
    • 35 Pay Per Use
    • 36 Pay What You Want
    • 37 Peer to Peer
    • 38 Performance-Based Contracting
    • 39 Razor and Blade
    • 40 Rent Instead of Buy
    • 41 Revenue Sharing
    • 42 Reverse Engineering
    • 43 Reverse Innovation
    • 44 Robin Hood
    • 45 Self-Service
    • 46 Shop in Shop
    • 47 Solution Provider
    • 48 Subscription
    • 49 Supermarket
    • 50 Target the Poor
    • 51 Trash to Cash
    • 52 Two-Sided Market
    • 53 Ultimate Luxury
    • 54 User Design
    • 55 White Label
    • 56 Sensor as a Service
    • 57 Virtualisation
    • 58 Object Self-Service
    • 59 Object as Point of Sale
    • 60 Prosumer

  • 'PART THREE: FINISHED READING? LET'S IMPLEMENT!' Tercera parte a modo de resumen y conclusión, con dos secciones más nitidamente separadas:

    • '10 recommendations to innovate your business models' un decálogo de recomendaciones en un par de páginas.

    • 'The 55+ models at a glance' una tabla resumen de los patrones vistos en la parte anteior.

A esto añaden un glosario, bibliografía y otros recursos de interés.

'The business model navigator' es una forma de profundizar en modelos de negocio y como innovar en ellos. Aporta esa visión bastante moderna de innovar en todo el modelo de negocio y no solo en tecnología o porfolio y un catálogo de modelos algunos muy comunes y reconocibles, y que, aunque algo breves, ayudan a afinar el olfato estratégico aprendiendo de lo que otros han hecho.

Quizá no sea un planteamiento del todo rompedor, pero sí es interesante e ilustrativo.

Oliver Gassmann

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Oliver Gassmann
Dedicado a la investigación en innovación, Oliver Gassmann es profesor de gestión de la tecnología en la University of St. Gallen. Es director ejecutivo de Gestión de la Tecnlogía en el Global Center for Entrepreneurship and Innovation. Hasta 2002 fue el íder del Schindler‘s Corporate Research como vicepresidente de Gestión de la Tecnología

Oliver ha publicado más de 650 publicaciones sobre management e innovación. Su libro ‘The Business Model Navigator’ ha sido calificado como una 'sensación' y se convirtió rápidamente en un bestseller global. Oliver ha sido Research Fellow en Berkeley (2007), Stanford (2012) y Harvard (2016).

En 2014 ha sido galardonado con el prestigioso premio Scholary Impact Award por el Journal of Management. En 2015 fue distinguido con el Citation of Excellence Award por Emerald Group. Es el investigador más citado en el campo de "R&D Management" a lo largo de todo el mundo según Google Scholar en 2020.

Gassmann ha fundado varias spin-offs, participa en comités de compañías internacionales y es un keynote speaker frecuente en conferencias internacionales.

Puedes conocer más del autor visitando su perfil en LinkedIn.

Karolin Frankenberger

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Karolin Frankenberger
Karolin Frankenberger es profesora de Strategy and Innovation en la University of St. Gallen. También es directora académica del programa Executives MBA program en la University of St. Gallen. Se especializa en innovación en modelos de negocio, Transformación Digital de Negocios, Economía Circular y ecosistemas. Completó su doctorado en la University of St. Gallen incluyendo estancias de investigación en la Harvard Business School y la University of Connecticut. Tras finalizar su doctorado, Frankenberger estuvo trabajando durante 7 años en la compañía de consultoría McKinsey & Company.

La investigación de Frankenberger ha sido publicada en las más destacadas revistas académicas como la "Academy of Management Journal" y en revistas orientadas a la alta dirección, como "Harvard Business Review". Sus libros publicados son especialmente destacados. Su libro "The Business Model Navigator: 55 Models That Will Revolutionize Your Business" ha sido traducido a múltiples idiomas y es conocido en el mundo entero como una referencia en la literaria de innovación en modelos de negocio.

Frankenberger ha recibido el Best Paper Nominations en la Academy of Management Journal and Strategic Management Society. En 2019 Frankenberger tuvo el honor de ser seleccionada como Thinker of the month en Mayo by la renombrada organización “Thinkers 50”. En 2018 Frankenberger fue seleccionada como Female Academics to AcademiaNet. En 2006 fue la ganadora del Sumantra Ghoshal Research and Practice Award y del Distinguished Paper Award de la Academy of Management Annual meeting, Atlanta, 2006 por su trabajo en el desarrollo de iniciativas estratégicas.

Frankenberger asiste regularmente como keynote speaker en conferencias nacionales e internacionales o eventos in-house.

Puedes conocer más de la autora visitando su perfil en LinkedIn

Michaela Choudury

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Michaela Choudury
Actualmente, Head oj Jobs Division en Ringier AG, fue jefe de proyecto y ayudante de investigación en la University of St. Gallen de 2009 a 2013.

Tiene una gran pasión por la dirección de la transformación en organizaciones
  • Aprovechando las tecnologías digitales y sacando partido a enfoques innovadores y centrados en el cliente
  • Desarrollando e implementando nuevos modelos de negocios
  • Promoviendo comportamientos ágiles y cooperativos
Entre sus especialidades se incluyen: transformación digital, modelado de negocio, innovación en modelos de negocio, gestión data-driven, transformación cultural, mercados emergentes y gestión de la innovación.

Puedes conocer más de la autora visitando su perfil en LinkedIn.

Ficha técnica:

viernes, 26 de noviembre de 2021

La explicabilidad de la Inteligencia Artificial y la falsa sensación de seguridad

Entre las temáticas que se empiezan a exigir, o hablar de exigir, a la inteligencia artificial, partiendo normalmente de una visión ética o normativa, es la llamada explicabilidad de la inteligencia artificial, es decir, que un algoritmo, o mejor, un sistema de inteligencia artificial, sea capaz de explicar su modo de razonamiento, cómo ha llegado a una decisión concreta, en términos comprensibles por los humanos y similares a como estos razonan cuando lo hacen de manera racional y consciente.

No es inocente que haya destacado en negrita lo de 'comprensibles por los humanos' y lo de 'racional y consciente'. Antes de ir al argumento principal del artículo, me voy a detener unos instantes en estas dos ideas.


Comprensión por los humanos


Defiendo, y ya lo he argumentado en este mismo blog, que los algoritmos de inteligencia artificial se pueden explicar perfectamente. Aunque evolucionen mediante experiencia y aprendizaje, en un momento dado son perfectamente deterministas y, por tanto, se pueden explicar de manera inequívoca,

El problema, en realidad, y me gusta matizarlo, es que esa explicación muchas veces no se puede realizar en términos similares al razonamiento consciente humano ni de forma comprensible fácilmente por personas no especializadas. Más aún, no se puede comparar a cómo habría adoptado la decisión un humano.

Por eso, a pesar de ser perfectamente explicables, a efectos prácticos, consideramos que no es así.


Decisiones racionales y conscientes


Por otro lado, y aunque este es un matiz algo más secundario, he apuntado que buscamos unas explicaciones similares a las de los humanos pero matizando que similares a cuando estos razonan de manera racional y consciente. 

Apunto a lo de consciente porque una gran parte de las decisiones que tomamos y de acciones que llevamos a cabo, son ejecutadas por nuestro cerebro sin que pasen por nuestro razonamiento consciente, sin que a efectos anatómicos, pasen por nuestro neocortex. Se trata de la autorregulación, de los actos reflejos, etc. Pues bien, la explicabilidad espera descripciones similares a cuando aplicamos razonamientos conscientes.

Y por otro lado destaco lo de la racionalidad porque, como argumentábamos muy recientemente en este blog, con frecuencia, y al contrario que los algoritmos, nuestra forma de conducirnos no es plenamente racional. Y de la explicabilidad de la inteligencia artificial sí que esperamos una argumentación racional.


Explicabilidad versus eficacia 


Una de las estrategias que se siguen en explicabilidad de la inteligencia artificial es la de intentar sustituir un algoritmo no explicable por otro de similares resultados que sí sea explicable. Por ejemplo, sustituir un sistema de deep learning por un árbol de decisión. Conviene saber, sin embargo, que con mucha frecuencia, esa sustitución no es posible (no existe un algoritmo explicable de similares resultados) o, cuando es posible, no es raro que los algoritmos no explicables sean mucho más efectivos.

Esto lo digo como una llamada al realismo y también como un aviso para no exigir la explicabilidad de manera indiscriminada y en casos en que no sea realmente necesaria.


La falsa sensación de seguridad


Pero hay algo más, y con ello voy a lo que ha inspirado este artículo y lo que en principio era su objetivo principal. Leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig veo una idea interesante: la falsa sensación de seguridad.

Siguiendo el mismo ejemplo de sustitución de una red neuronal por un árbol de decisión como forma de conseguir explicabilidad, apuntan los autores justo lo que decía yo más arriba, que en general una red neuronal (no explicable) es mucho más potente, mucho más rica y efectiva, que un árbol de decisión.

Nos podríamos quedar tranquilos con el árbol de decisión pero, como bien señalan los autores, eso puede suponer caer en una falsa sensación de seguridad porque, si el algoritmo original era una red neuronal era, precisamente, por su mucho mayor potencia y capacidad, porque está resolviendo un problema para el que, precisamente, no existen reglas claras, al menos reglas conocidas por los humanos.

Destacan con mucho acierto los autores que cuando elegimos machine learning (muchos de cuyos algoritmos son no explicables), lo hacemos precisamente porque abordamos problemas complejos y porque nosotros, los humanos, no disponemos de reglas claras para decidir y esperamos que el algoritmo encuentre el camino. 

O sea, y esto ya lo digo yo, elegimos un algoritmo de machine learning (digamos deep learning) porque como humanos somos incapaces de concluir unas reglas explícitas que pudiéramos programar en un algoritmo tradicional (ni siquiera de inteligencia artificial) y, sin embargo, pretendemos que la explicación sí que se base en unas reglas claras y comprensibles. 

Optar por un algoritmo más sencillo, porque es explicable, puede crear esa falsa sensación de seguridad.


Conclusión


Al final, y como tan a menudo digo, es importante el conocimiento y el rigor. No debemos exigir la explicabilidad de la inteligencia artificial de manera indiscriminada.

Debemos ser conscientes de que los algoritmos no explicables, no son opacos por ninguna maldad ni oscurantismo por parte de sus desarrolladores ni, por supuesto, porque esos algoritmos tengan algún tipo de voluntad porpia, que no tienen, y hayan decidido ocultarnos cómo toman sus decisiones. 

No. 

Son no explicables (no explicables en términos humanos) porque es la mejor forma que hemos encontrado hasta la fecha de resolver problemas complejos para los que los humanos no hemos sido capaces de encontrar unas reglas claras que programar de manera explícita y que harían al algoritmo perfectamente explicable por diseño.

Seamos conscientes de ello y no busquemos explicabilidad donde no es necesaria ni caigamos tampoco en la falsa sensación de seguridad.


miércoles, 24 de noviembre de 2021

Algoritmos y el valor de la vida humana: la cosa puede no ser tan evidente

Marcar indicadores para un proceso o actividad, reducir a números una realidad compleja, es una forma efectiva y normalmente razonable de hacerla manejable y también de gestionarla con efectividad. Pero también, es por desgracia, una forma arriesgada de modelar ese proceso, actividad o realidad.

Y más si de lo que hablamos es de la vida humana.


KPIs, indicadores, números 


En la gestión empresarial, por ejemplo, es práctica habitual (en realidad menos habitual de lo que debiera) el obtener indicadores del funcionamiento de la compañía. Indicadores financieros como ingresos, margen o EBITDA. Indicadores operativos como tiempos medios de ejecución de procesos (procesamiento de pedidos, entrega de pedidos, atención a llamadas, aprovisionamiento de materiales, fabricación, etc). Indicadores de satisfacción de cliente (como el famosos NPS, Net Promoter Score) o de clima laboral. Etcétera, etcétera, etcétera.

Hablamos de KPI (Key Process Indicators), OKR (Objectives & Key Results) y hacemos, o deberíamos hacer informes, cuadros de mando (integrales o no) y, si estamos en una compañía digitalmente avanzada y muy 'data-driven', tal vez hasta analítica predictiva.

 

El riesgo de los indicadores


Sin embargo, la simplificación que supone reducir un fenómeno a un indicador, una simplificación que en buena medida es 'parte de su gracia', no está exenta de riesgos.

Un indicador, por un lado, al ser una simplificación (y muy grande) puede estarnos ocultando una realidad más compleja y no permitirnos avistar algún fenómeno, quizá alguna causa raíz, que nos permitiría tomar mejores decisiones.

Quizá peor aún, un indicador que se convierte en objetivo, con frecuencia, incentiva un comportamiento. Si medimos ingresos por un producto concreto y ponemos un objetivo más exigente que en otros, nuestra fuerza comercial tenderá a concentrarse en vender ese producto y quizá no otros. ¿Es eso lo que queremos? Puede que sí...o puede que no.

Más claro aún. Si ponemos como indicador de un contact center un tiempo medio de atención bajo, como forma de hacer ese contact center más eficiente y aumentar su capacidad efectiva de atender llamadas, estamos sin embargo incentivando una mala atención (lo digo por experiencia), animando, sin pretenderlo, a los agentes del contact center a cerrar los asuntos en falso, sin una verdadera resolución o derivándolo a otras unidades, ya que así deja de contarles a ellos el tiempo. ¿Recibe el cliente una mejor atención? Claramente, no. Y sin embargo, visto en abstracto, una atención rápida es un valor positivo, incluso para el cliente.

Por eso es preciso elegir muy bien los indicadores, proponer un juego de KPIs que se equilibren entre sí y en que unos compensen los vicios que otros generan  y no olvidar nunca, cuál es el verdadero objetivo, qué estamos realmente queriendo medir e incentivar.

Se imponen, como defiendo con tanta frecuencia, el conocimiento y el rigor. Sin mitos ni lugares comunes: conocimiento y rigor.


El valor de la vida humana


Y, claro, si establecer indicadores y valores numéricos es delicado en el mundo económico y empresarial ¿Qué pasa ahora si queremos poner un valor concreto, económico, en dólares o euros, a una vida humana?

La idea, en un primer momento, parece repulsiva, y nos asusta y pone en guardia con sólo oírla.

Pero, como en todo lo demás, y si de decisiones hablamos, conviene ser racionales y entender de qué hablamos y sus consecuencias.

Y comento esto a raíz de algo que he leído en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig. Comentan el caso, bien es verdad que con muy poco detalle, en que más valdría haber asignado ese valor económico a una vida humana.

¿De qué contextos hablamos? Pues, claro, de casos en que la vida humana, de alguna manera, corre peligro, transporte sanitario (ambulancia), decisiones de salud pública, decisiones medioambientales, etc. Cuando queremos adoptar una política, unas directrices, parece que 'el algoritmo' nos lleva a meter el valor de la vida humana en la ecuación puesto que, uno de los resultados de una decisión u otra es el afectar a un mayor o menor número de vidas, quizá de forma fatal. En ese tipo de decisiones, lo hagamos de manera explícita o implícita, el valor de la vida humana está siempre en la balanza. Así lo indican los autores:

 

Although nobody feels comfortable with putting a value on human life, it is a fact that tradeoffs on matters of life and death are made all the time.


Nuestros sentimientos, puede que también nuestras normas morales, pueden impedirnos o al menos hacer que nos resistamos a asignar un valor económico a una vida humana. Es comprensible y difícil de criticar. Sin embargo, puede no ser la mejor postura.

Aunque no lo detallan, y entonces no puedo juzgar mucho más, los autores aportan el ejemplo, descrito por Ross Shachter, en que una agencia gubernamental (entiendo que norteamericana) tenía que decidir sobre la eliminación de elementos construidos con amianto, un material, al parecer, cancerígeno. Cabe suponer que eliminar ese amianto de manera global en las escuelas y colegios, debía ser una tarea compleja y, sobre todo, costosa. La agencia gubernamental subcontrató el estudio a una entidad externa, la cual asignó un valor económico a la vida de los niños, hizo su estudio y concluyó que la decisión razonable era eliminar el amianto de las escuelas.

Aunque nos puede erizar la piel el ver valorada económicamente la vida de un niño, lo cierto es que la la conclusión del estudio es la que, al menos con el corazón en la mano, todos consideraríamos que es mejor, dado que hay vidas, y además vidas infantiles, en juego: eliminar el amianto.

Sin embargo, la asignación de un valor económico a la vida de un niño, resultó inadmisible para la agencia gubernamental, quien descartó el informe. En su lugar llevó a cabo otro estudio en que no se asignaba valor económico a la vida de los niños. ¿Cuál fue el resultado? No eliminar el amianto.

¿Se observa la paradoja? Según nos indican los autores, el eliminar de la ecuación el valor económico de la  vida de los niños, supuso, de facto, devaluar esas vidas, darles menos importancia y, por ello, decidir que la mejor opción racional era mantener el amianto, o lo que es lo mismo, ahorrarse el coste de esa retirada pero arriesgando la vida de esos niños.


Conclusión: conocimiento y rigor


¿Qué nos enseña todo esto? Pues diría que se trata, de nuevo, de una llamada al conocimiento y al rigor.

No nos dejemos llevar por criterios simplistas, viscerales o emocionales cuando estudiemos formalmente fenómenos, cuando adoptemos decisiones y cuando elijamos números, indicadores o algoritmos que apoyen esas decisiones.

Ni en el ámbito económico ni en el ético.

No seamos simples ni simplistas.

Teniendo claros nuestros objetivos empresariales en unos casos, y nuestros criterios morales en otros, actuemos con cabeza, con conocimiento y con rigor, de forma que esa elección de indicadores y algoritmos, esa toma de decisiones, nos lleve realmente a donde queremos llegar y no a cualquier otra parte.

Puede haber vidas en juego.


lunes, 22 de noviembre de 2021

El efecto certeza o los motivos para la irracionalidad

En un artículo que publicaba la semana pasada, el titulado 'Racionalidad e Inteligencia artificial: teorías normativas versus descriptivas', comentaba cómo, a pesar de lo que quisiéramos pensar, el ser humano no es completamente racional y que, de hecho, con no escasa frecuencia, exhibe un comportamiento claramente irracional y un comportamiento que, precisamente por esa irracionalidad, se separa del tipo de comportamientos que podemos esperar de los robots y la inteligencia artificial... mucho más racionales.

En el mismo libro que inspiraba ese post, el popular 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, se comentan también algunos de los motivos que explican esa irracionalidad humana.

Para ello, los autores mencionan el denominado efecto certeza introducida por Daniel Kahneman y Amos Tversky ya en 1979 en el artículo 'Prospect theory: an analysis decision under risk' donde presentaban la teoría prospectiva, como una alternativa a la teoría de la utilidad, como explicación de las decisiones humanas. Según esa visión, las personas no buscan tanto la maximización racional de una utilidad sino que se ven fuertemente atraídas por las ganancias ciertas.

Para esa especie de paradoja de la racionalidad humana, se nos identifican tres posibles razones:


  • Las personas quizá prefieren evitar el trabajo computacional. Elegir la opción más cierta, se 'tira' por el camino más fácil, evitando farragosos cálculos de probabilidades.

  • Las personas podrían desconfiar de la legitimidad de las probabilidades teóricamente conocidas. Pudieran pensar, por ejemplo que no es cierto que tirar una moneda al aire suponga igualdad de probabilidades de cara y cruz.

  • Por último, y personalmente me parece lo más interesante, las personas pudieran estar decidiendo conforme, no sólo a la utilidad objetiva, sino también conforme a su estado emocional. En ese sentido, una persona se sentiría muy mal si pierde una apuesta optando por la opción más arriesgada y renunciando a la más seguro, incluso si en pura utilidad, el producto de probabilidad y ganancia favoreciese a la opción arriesgada.


Se trata sólo de hipótesis, pero parecen bastante creíbles.

Y lo que ahora me pregunto es si tiene sentido o algún interés que una máquina, un algoritmo, un robot se comportase de forma similar a la humana, con esas 'no racionalidades' o si tiene más sentido que dejemos la racionalidad pura en manos de las máquinas y dejemos que las personas sigamos siendo lo irracionales que nuestra naturaleza parece exigirnos.


miércoles, 17 de noviembre de 2021

Racionalidad e Inteligencia artificial: teorías normativas versus descriptivas

Con frecuencia se compara la inteligencia artificial con la inteligencia humana.

En el fondo es comprensible, aunque a veces conduzca a malos entendidos o a mitos. Al fin y al cabo, la inteligencia humana y sus capacidades cognitivas son, al menos en ocasiones, no siempre. la inspiración de la inteligencia artificial. Y al fin  al cabo, también, la inteligencia humana y sus capacidades cognitivas son el objetivo en ocasiones, no siempre, de la inteligencia artificial.

Sin embargo, a pesar de narrativas fantasiosas, inteligencia humana y artificial no son lo mismo, no funcionan igual. 

Bueno, para ser más rigurosos, es muy poco probable que funcionen igual. Y digo que es poco probable, en lugar de afirmar rotundamente que funcionan de manera diferente, porque sabemos cómo funcionan los algoritmos de inteligencia artificial, pero no sabemos, salvo por comportamientos observables y algunas manifestaciones fisiológicas y anatómicas no concluyentes, cómo funciona en realidad el cerebro humano. 

No conociendo el funcionamiento íntimo del cerebro, sólo podemos juzgar, en el fondo, según su manifestación externa. En esa manifestación externa, la inteligencia artificial busca en ciertas aplicaciones, precisamente, emular el razonamiento y comportamiento humano, y en ocasiones se aproxima bastante, todo hay que decirlo. 


Sobre la racionalidad


Pero se manifiestan diferencias y una de ellas afecta a algo que creemos tan humano y de lo que tanto nos enorgullecemos, y al menos parcialmente de manera justificada, como es la racionalidad. Pensamos que el hombre es un ser racional. Y lo es...pero sólo hasta cierto punto.

Aspectos como el impacto de las emociones, la incapacidad en ocasiones para detectar y entender toda la información disponible, o formas simplificadas de reaccionar que quizá sean en general un acierto evolutivo pero que ocasionalmente pueden ser disfuncionales, hacen que nuestro comportamiento no sea siempre tan racional como pensamos.

Sin embargo, los algoritmos si suelen ser racionales, lo son en la mayoría de los casos. En realidad, lo son casi siempre salvo cuando, usando machine learning, les enseñamos a imitar a los humanos no con base en reglas sino en observaciones.


Teorías normativas y teorías descriptivas


Y me viene esta reflexión a la cabeza leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, una especie de manual y Biblia de la inteligencia artificial. Y me surge, en concreto, leyendo a propósito de la teoría de la decisión, una disciplina que busca algoritmos para la adopción de decisiones, en general intentando maximizar una función de utilidad, es decir, una especie de trasposición algorítmica de la teoría ética consecuencialista, con la salvedad de que la teoría de la decisión no se suele ocupar de cuestiones morales sino de otras mucho más prácticas o incluso lúdicas (como juegos).

En ese ámbito, los autores nos recuerdan que la teoría de la decisión es lo que se llama una teoría normativa, es decir, describe cómo debe de comportarse un agente racional, un agente que de forma rigurosa, busca maximizar su utilidad. 

Y oponen esa idea a las teorías descriptivas, que explican el comportamiento de agentes no racionales... como los seres humanos. Unas teorías que quizá podamos encontrar en campos como la economía, especialmente la economía conductual, la psicología o la sociología.


En conclusión


Así que, existen algunos paralelismos entre la inteligencia artificial y la humana y una cierta inspiración de la primera en la segunda, pero también existen claras diferencias y una de ellas afecta a la racionalidad. A diferencia de los humanos, los algoritmos de inteligencia artificial sí son racionales...salvo cuando les enseñamos a imitarnos, claro.


viernes, 12 de noviembre de 2021

La Transformación Digital vista por Tom Siebel

'Digital Transformation: survive and thrive in an era of mass extinction' presenta la particular visión que, sobre la transformación digital tiene quien ha sido un gran actor del mundo digital desde hace años: Tom Siebel. Una visión que pone bastante énfasis en la tecnología, apostando en concreto por cuatro tecnologías como las más transformadoras, a saber, cloud computing, big data, inteligencia artificial e Internet de las Cosas. Una visión donde también juega un papel importante la visión de plataforma tecnológica y una visión, en fin, que seguramente no es ajena al negocio y actividad que Siebel preside en el momento de escribir este libro: C3.ai.

El libro se estructura en once capítulos, a saber:
  • '1. Punctuated equilibrium:' Utiliza como ilustración de lo que sucede con lo digital y la transformación digital la teoría del equilibro interrumpido ('punctuated equilibrium'). Según esta teoría la evolución se produce mediante 'estallidos' que provocan extinciones masivas y que son seguidos de equilibrios. Siebel entiende que, igual que eso sucede en la historia natural, ocurre también en el mundo de los negocios y que la irrupción de lo digital es uno de esos estallidos y que provocará la extinción masiva de las empresas que no se sepan adaptar. Además, anuncia ya que, en su concepción, cuatro son las tecnologías clave: la intersección entre Cloud Computing, Big Data, Internet de las Cosas e Inteligencia Artificial.

  • '2. Digital Transformation:' Presenta la transformación digital como una ola de cambio que ha sido precedida por otras dos: digitalización e Internet y hace una llamada a la transformación. Finaliza con un recorrido a lo largo de efectos de la transformación digital.

  • '3. The Information Age Accelerates:' Hace un recorrido rápido por las tecnologías y soluciones que considera más relevantes varias de las cuales desarrolla en los siguientes capítulos. Así habla, sucesivamente, de cloud computing, virtualización y contenedores, cloud híbrida, big data, inteligencia artificial, machine learning, deep learning, internet de las cosas y arquitectura orientada a modelos.

  • '4. The Elastic Cloud:' Con este capítulo inicia una parte del libro en que explica las tecnologías que considera están dirigiendo el cambio. En concreto, en este caso se centra en Cloud Computing. Comienza mostrando la evolución desde los mainframes y la aplicación de la virtualización para acabar en la cloud pública. Explica las características fundamentales de la nube y sus modelos de servicio y finaliza pasando revista a los beneficios que trae consigo incluyendo la conversión de CapEx en OpEx.

  • '5. Big Data:' Segunda tecnología clave. Big Data. Comienza presentando algunas ideas iniciales sobre Big Data. Luego dedica bastante espacio a contar la historia del almacenamiento desde 1940 culminando con el viaje de este almacenamiento hacia la nube. Luego analiza brevemente la evolución de Big Data y finaliza explicando los beneficios de Big Data y los retos que supone para las empresas.

  • '6. The AI Renaisanse:' Se centra ahora en la tercera tecnología clave: Inteligencia artificial que presenta como un nuevo paradigma en computación. Pasa revista a su historia incluyendo los famosos inviernos y, por supuesto, su renacimiento actual y el despegue del deep learning. Hace un breve alto en el software libre en relación con la inteligencia artificial y continua presentando una visión del estado del arte actual y los beneficios que para los negocios trae consigo la inteligencia artificial tanto a nivel de las empresas como a nivel social y macroeconómico. Y fializa tratando brevemente la lucha actual por el escaso talento disponible en Inteligencia Artificial.

  • '7. The Internet Of Things:' Y este capítulo cierra la serie de cuatro dedicados a las tecnologías que Siebel considera claves. En esta caso, habla de Internet de las Cosas. Habla de sus orígenes, su crecimiento y sus impactos. En este último aspecto, se detiene a explicar cómo IoT crea valor y analiza algunos caso de uso como la red inteligente de energía, el mantenimiento predictivo, la optimización de inventarios o el cuidado de pacientes. Luego presenta una visión de mercado con los sectores más afectados y el estado del mercado. Revisa a continuación sus implicaciones para las empresas y finaliza con una visión integrada de Internet de las Cosas, Cloud Computing e Inteligencia Artificial.

  • '8: AI in Government' Habla, como el título anticipa, del uso de inteligencia artificial en las administraciones públicas, pero no de una forma general, identificando casos de uso o similar sino con una visión de geoestrategia. Destaca el valor estratégico de la inteligencia artificial a nivel mundial y analiza la carrera entre China y Estados Unidos para dominar ta tecnología. Y luego dedica la mayor parte del capítulo al asunto de la ciberguerra y las armas inteligentes. Y finaliza, de nuevo, con un breve apunte sobre el talento en Inteligencia Artificial.

  • '9. The Digital Enterpise:' Propone varios casos de empresas con una transformación digital exitosa: ENGIE, Enel, Caterpillar, John Deere, 3M y la fuerza aérea de los Estados Unidos.

  • '10. A New Technology Stack:' Un capítulo que vuelve a lo más técnico y donde Siebel afirma que se necesita una nueva pila ('stack') de software y tecnología. En esa línea, presenta una plataforma de referencia en software de inteligencia artificial e Internet de las Cosas, primero de forma más conceptual y luego concretándola en una pila basada en software libre. También revisa las herramientas existentes en la nube, ejemplificándolo con Amazon AWS, para finalizar hablando de la arquitectura orientada a modelos y la independencia de plataforma.

  • '11. The CEO Action Plan:' Y finaliza con una visión ejecutiva, hablando del CEO transformador y proponiendo un plan de acción en 10 pasos.
Destacaría tres aspectos de la visión de Siebel respecto a la transformación digital que comparo con mi propia visión que expreso en mi libro 'La Carrera Digital'.

En primer lugar, y más a nivel terminológico que de contenido, que él aplica el término transformación digital no tanto como un cambio en una empresa (aunque evidentemente habla mucho delas empresas y sus necesidad de adaptación), sino como un cambio global de la economía y los negocio. En mi terminología, transformación digital es un cambio que hace una organización, típicamente una empresa para responder a los cambios externos en tecnología, aprovechando oportunidades y respondiendo a amenazas.

En segundo lugar, y en eso se acerca a mi visión de la transformación digital, concede mucha importancia al papel de la tecnología, frente a visiones más centradas en lo estratégico, lo humano o lo comercial. De hecho su visión gira mucho, casi exclusivamente, en torno a la tecnología.

Por último, y en eso se diferencia de mi propia visión ese foco en la tecnología es, como decía, casi exclusivo, no concediendo apenas espacio a otros aspectos de la transformación, típicamente al estratégico y el humano, con solo algunas referencias breves a liderazgo y talento.

Un libro, en fin, que sin ser excesivamente original, presenta de manera correcta ideas sobre trasformación digital y que, además, tiene el indudable interés de haber sido escrito por uno de los protagonistas del mundo digital desde hace muchos años.
 
Thomas Siebel

(Fuente: Traducción y ligera elaboración propia de Wikipedia)

Tom Siebel
Thomas M. Siebel, nacido en Chicago en 1952, es un millonario americano, hombre de negocios, tecnólogo y escritor. Fue el fundador de la compañía de software Siebel Systems y es el fundador, presidente y CEO de C3.ai, una compañía de aplicaciones y plataformas software de inteligencia artificial. Es también presidente de First Virtual Group, un holding diversificado con intereses en gestión de inversiones, bienes raíces, agricultura y filantropía.

Entre 1984 y 1990, fue directivo en Oracle Corporation donde ocupó diferentes puestos. Fue CEO de Gain Technology, una compañía de software multimedia que se fusionó con Sybase en Diciembre de 1992. Siebel fue el fundador, presidente y CEO de Siebel Systems, que fue adquirida por Oracle en Enero de 2006.

En 2009 Siebel fundó C·.ai, inicialmente orientada a proporcionar software empresarial para la gestión energética. Actualmente, C3.ai proporciona una plataforma de software empresarial de inteligencia artificial para muchos usos comerciales incluyendo la gestión energética, el mantenimiento predictivo, la detección del fraude, la protección frente a blanqueo de capitales, la optimización de inventario y CRM predictivo.

Siebel es un frecuente conferenciante y es autor de los libros 'Digital Transformation: Survive and Thrive in an Era of Mass Extinction' (2019), 'Taking Care of eBusiness' (2001), 'Cyber Rules' (1999) y 'Virtual Selling' (1996).

Thomas Siebel tiene un grado en historia por la University of Illinois at Urbana-Champaign, un MBA, un master en ciencia de los computadores y un doctorado honorífico en ingeniería.

Puedes conocer más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @TomSiebel.

Ficha técnica: