martes, 30 de noviembre de 2021

Navegando los modelos de negocio con Gassmann, Frankenberger y Choudury

'The business model navigator' es un libro sobre innovación en modelos de negocio, una innovación que los autores conciben, en buena medida, como el conocimiento y reutilización de patrones de modelos de negocio exitosos. El libro ofrece, por un lado, una metodología de trabajo para la innovación en modelos de negocio y, por otro, un amplio catálogo de patrones de modelos de negocio de éxito reconocibles en la industria.

La estructura del libro es un poco particular. Incluye tres partes. La primera, más parecida a un libro tradicional, incluye tres capítulos en que se explica el enfoque y la metodología. La segunda parte es un extenso catálogo de patrones de modelo de negocio con un breve espacio dedicado a explicar cada uno. Y la tercera parte, bastante breve, simplemente da unas recomendaciones finales. Según esto, la estructura queda como sigue:
  • 'PART ONE: HOW TO DRIVE BUSINESS MODEL INNOVATION'

    • '1. What is a business model and why should it be innovated?' capítulo introductorio en que explican las partes de un modelo de negocio (WHO-WHAT-HOW-VALUE) y el concepto e importancia de la innovación en modelos de negocio así como los tres grandes retos que implica: (1) pensar fuera de la lógica dominante dentro del sector, (2) pensar en modelos de negocio más que en tecnologías o productos y (3) el uso de herramientas sistemáticas.

    • '2. The Business Model Navigator' Capítulo esencial que explica la metodología de innovación propuesta por los autores. Tras resaltar la importancia de la imitación creativa, es decir, la reutilizacion de patrones de éxito existentes para construir una solución innovadora propia, desarrollan su metodología con cuatro fases: (1) Iniciación: análisis del ecosistema; (2) Ideación: generación de nuevas ideas; (3) Integración: asegurar la consistencia del modelo de negocio y (4) Implementación: probar y optimizar.

    • '3. Managing change' orientado a la implementación y sobre todo a la gestión del cambio, para lo que proponen definir un plan de acción, definir objetivos y estructuras y construir capacidades (equipo, cultura, etc)

  • 'PART TWO: 55+ WINING BUSINESS MODELS - AND WHAT THEY CAN DO FOR YOU' Una segunda parte que en realidad es un catálogo de 60 patrones de modelos de negocio. Por cada patrón se aporta una breve descripción de en qué consiste, una breve reseña acerca de sus orígenes, otra breve identificación de empresas u organizaciones que lo implementan de manera exitosa y unas indicaciones acerca de cuándo resulta conveniente usarlo incluyendo algunas preguntas clave que hacerse. Los patrones de modelo de negocio que se describen son:

    • 1 Add-On
    • 2 Affiliation
    • 3 Aikido
    • 4 Auction
    • 5 Barter
    • 6 Cash Machine
    • 7 Cross-Selling
    • 8 Crowdfunding
    • 9 Crowdsourcing
    • 10 Customer Loyalty
    • 11 Digitalisation
    • 12 Direct Selling
    • 13 E-commerce
    • 14 Experience Selling
    • 15 Flat Rate
    • 16 Fractional Ownership
    • 17 Franchising
    • 18 Freemium
    • 19 From Push to Pull
    • 20 Guaranteed Availability
    • 21 Hidden Revenue
    • 22 Ingredient Branding
    • 23 Integrator
    • 24 Layer Player
    • 25 Leverage Customer Data
    • 26 Licensing
    • 27 Lock-In
    • 28 Long Tail
    • 29 Make More of It
    • 30 Mass Customisation
    • 31 No Frills
    • 32 Open Business
    • 33 Open Source
    • 34 Orchestrator
    • 35 Pay Per Use
    • 36 Pay What You Want
    • 37 Peer to Peer
    • 38 Performance-Based Contracting
    • 39 Razor and Blade
    • 40 Rent Instead of Buy
    • 41 Revenue Sharing
    • 42 Reverse Engineering
    • 43 Reverse Innovation
    • 44 Robin Hood
    • 45 Self-Service
    • 46 Shop in Shop
    • 47 Solution Provider
    • 48 Subscription
    • 49 Supermarket
    • 50 Target the Poor
    • 51 Trash to Cash
    • 52 Two-Sided Market
    • 53 Ultimate Luxury
    • 54 User Design
    • 55 White Label
    • 56 Sensor as a Service
    • 57 Virtualisation
    • 58 Object Self-Service
    • 59 Object as Point of Sale
    • 60 Prosumer

  • 'PART THREE: FINISHED READING? LET'S IMPLEMENT!' Tercera parte a modo de resumen y conclusión, con dos secciones más nitidamente separadas:

    • '10 recommendations to innovate your business models' un decálogo de recomendaciones en un par de páginas.

    • 'The 55+ models at a glance' una tabla resumen de los patrones vistos en la parte anteior.

A esto añaden un glosario, bibliografía y otros recursos de interés.

'The business model navigator' es una forma de profundizar en modelos de negocio y como innovar en ellos. Aporta esa visión bastante moderna de innovar en todo el modelo de negocio y no solo en tecnología o porfolio y un catálogo de modelos algunos muy comunes y reconocibles, y que, aunque algo breves, ayudan a afinar el olfato estratégico aprendiendo de lo que otros han hecho.

Quizá no sea un planteamiento del todo rompedor, pero sí es interesante e ilustrativo.

Oliver Gassmann

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Oliver Gassmann
Dedicado a la investigación en innovación, Oliver Gassmann es profesor de gestión de la tecnología en la University of St. Gallen. Es director ejecutivo de Gestión de la Tecnlogía en el Global Center for Entrepreneurship and Innovation. Hasta 2002 fue el íder del Schindler‘s Corporate Research como vicepresidente de Gestión de la Tecnología

Oliver ha publicado más de 650 publicaciones sobre management e innovación. Su libro ‘The Business Model Navigator’ ha sido calificado como una 'sensación' y se convirtió rápidamente en un bestseller global. Oliver ha sido Research Fellow en Berkeley (2007), Stanford (2012) y Harvard (2016).

En 2014 ha sido galardonado con el prestigioso premio Scholary Impact Award por el Journal of Management. En 2015 fue distinguido con el Citation of Excellence Award por Emerald Group. Es el investigador más citado en el campo de "R&D Management" a lo largo de todo el mundo según Google Scholar en 2020.

Gassmann ha fundado varias spin-offs, participa en comités de compañías internacionales y es un keynote speaker frecuente en conferencias internacionales.

Puedes conocer más del autor visitando su perfil en LinkedIn.

Karolin Frankenberger

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Karolin Frankenberger
Karolin Frankenberger es profesora de Strategy and Innovation en la University of St. Gallen. También es directora académica del programa Executives MBA program en la University of St. Gallen. Se especializa en innovación en modelos de negocio, Transformación Digital de Negocios, Economía Circular y ecosistemas. Completó su doctorado en la University of St. Gallen incluyendo estancias de investigación en la Harvard Business School y la University of Connecticut. Tras finalizar su doctorado, Frankenberger estuvo trabajando durante 7 años en la compañía de consultoría McKinsey & Company.

La investigación de Frankenberger ha sido publicada en las más destacadas revistas académicas como la "Academy of Management Journal" y en revistas orientadas a la alta dirección, como "Harvard Business Review". Sus libros publicados son especialmente destacados. Su libro "The Business Model Navigator: 55 Models That Will Revolutionize Your Business" ha sido traducido a múltiples idiomas y es conocido en el mundo entero como una referencia en la literaria de innovación en modelos de negocio.

Frankenberger ha recibido el Best Paper Nominations en la Academy of Management Journal and Strategic Management Society. En 2019 Frankenberger tuvo el honor de ser seleccionada como Thinker of the month en Mayo by la renombrada organización “Thinkers 50”. En 2018 Frankenberger fue seleccionada como Female Academics to AcademiaNet. En 2006 fue la ganadora del Sumantra Ghoshal Research and Practice Award y del Distinguished Paper Award de la Academy of Management Annual meeting, Atlanta, 2006 por su trabajo en el desarrollo de iniciativas estratégicas.

Frankenberger asiste regularmente como keynote speaker en conferencias nacionales e internacionales o eventos in-house.

Puedes conocer más de la autora visitando su perfil en LinkedIn

Michaela Choudury

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)

Michaela Choudury
Actualmente, Head oj Jobs Division en Ringier AG, fue jefe de proyecto y ayudante de investigación en la University of St. Gallen de 2009 a 2013.

Tiene una gran pasión por la dirección de la transformación en organizaciones
  • Aprovechando las tecnologías digitales y sacando partido a enfoques innovadores y centrados en el cliente
  • Desarrollando e implementando nuevos modelos de negocios
  • Promoviendo comportamientos ágiles y cooperativos
Entre sus especialidades se incluyen: transformación digital, modelado de negocio, innovación en modelos de negocio, gestión data-driven, transformación cultural, mercados emergentes y gestión de la innovación.

Puedes conocer más de la autora visitando su perfil en LinkedIn.

Ficha técnica:

viernes, 26 de noviembre de 2021

La explicabilidad de la Inteligencia Artificial y la falsa sensación de seguridad

Entre las temáticas que se empiezan a exigir, o hablar de exigir, a la inteligencia artificial, partiendo normalmente de una visión ética o normativa, es la llamada explicabilidad de la inteligencia artificial, es decir, que un algoritmo, o mejor, un sistema de inteligencia artificial, sea capaz de explicar su modo de razonamiento, cómo ha llegado a una decisión concreta, en términos comprensibles por los humanos y similares a como estos razonan cuando lo hacen de manera racional y consciente.

No es inocente que haya destacado en negrita lo de 'comprensibles por los humanos' y lo de 'racional y consciente'. Antes de ir al argumento principal del artículo, me voy a detener unos instantes en estas dos ideas.


Comprensión por los humanos


Defiendo, y ya lo he argumentado en este mismo blog, que los algoritmos de inteligencia artificial se pueden explicar perfectamente. Aunque evolucionen mediante experiencia y aprendizaje, en un momento dado son perfectamente deterministas y, por tanto, se pueden explicar de manera inequívoca,

El problema, en realidad, y me gusta matizarlo, es que esa explicación muchas veces no se puede realizar en términos similares al razonamiento consciente humano ni de forma comprensible fácilmente por personas no especializadas. Más aún, no se puede comparar a cómo habría adoptado la decisión un humano.

Por eso, a pesar de ser perfectamente explicables, a efectos prácticos, consideramos que no es así.


Decisiones racionales y conscientes


Por otro lado, y aunque este es un matiz algo más secundario, he apuntado que buscamos unas explicaciones similares a las de los humanos pero matizando que similares a cuando estos razonan de manera racional y consciente. 

Apunto a lo de consciente porque una gran parte de las decisiones que tomamos y de acciones que llevamos a cabo, son ejecutadas por nuestro cerebro sin que pasen por nuestro razonamiento consciente, sin que a efectos anatómicos, pasen por nuestro neocortex. Se trata de la autorregulación, de los actos reflejos, etc. Pues bien, la explicabilidad espera descripciones similares a cuando aplicamos razonamientos conscientes.

Y por otro lado destaco lo de la racionalidad porque, como argumentábamos muy recientemente en este blog, con frecuencia, y al contrario que los algoritmos, nuestra forma de conducirnos no es plenamente racional. Y de la explicabilidad de la inteligencia artificial sí que esperamos una argumentación racional.


Explicabilidad versus eficacia 


Una de las estrategias que se siguen en explicabilidad de la inteligencia artificial es la de intentar sustituir un algoritmo no explicable por otro de similares resultados que sí sea explicable. Por ejemplo, sustituir un sistema de deep learning por un árbol de decisión. Conviene saber, sin embargo, que con mucha frecuencia, esa sustitución no es posible (no existe un algoritmo explicable de similares resultados) o, cuando es posible, no es raro que los algoritmos no explicables sean mucho más efectivos.

Esto lo digo como una llamada al realismo y también como un aviso para no exigir la explicabilidad de manera indiscriminada y en casos en que no sea realmente necesaria.


La falsa sensación de seguridad


Pero hay algo más, y con ello voy a lo que ha inspirado este artículo y lo que en principio era su objetivo principal. Leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig veo una idea interesante: la falsa sensación de seguridad.

Siguiendo el mismo ejemplo de sustitución de una red neuronal por un árbol de decisión como forma de conseguir explicabilidad, apuntan los autores justo lo que decía yo más arriba, que en general una red neuronal (no explicable) es mucho más potente, mucho más rica y efectiva, que un árbol de decisión.

Nos podríamos quedar tranquilos con el árbol de decisión pero, como bien señalan los autores, eso puede suponer caer en una falsa sensación de seguridad porque, si el algoritmo original era una red neuronal era, precisamente, por su mucho mayor potencia y capacidad, porque está resolviendo un problema para el que, precisamente, no existen reglas claras, al menos reglas conocidas por los humanos.

Destacan con mucho acierto los autores que cuando elegimos machine learning (muchos de cuyos algoritmos son no explicables), lo hacemos precisamente porque abordamos problemas complejos y porque nosotros, los humanos, no disponemos de reglas claras para decidir y esperamos que el algoritmo encuentre el camino. 

O sea, y esto ya lo digo yo, elegimos un algoritmo de machine learning (digamos deep learning) porque como humanos somos incapaces de concluir unas reglas explícitas que pudiéramos programar en un algoritmo tradicional (ni siquiera de inteligencia artificial) y, sin embargo, pretendemos que la explicación sí que se base en unas reglas claras y comprensibles. 

Optar por un algoritmo más sencillo, porque es explicable, puede crear esa falsa sensación de seguridad.


Conclusión


Al final, y como tan a menudo digo, es importante el conocimiento y el rigor. No debemos exigir la explicabilidad de la inteligencia artificial de manera indiscriminada.

Debemos ser conscientes de que los algoritmos no explicables, no son opacos por ninguna maldad ni oscurantismo por parte de sus desarrolladores ni, por supuesto, porque esos algoritmos tengan algún tipo de voluntad porpia, que no tienen, y hayan decidido ocultarnos cómo toman sus decisiones. 

No. 

Son no explicables (no explicables en términos humanos) porque es la mejor forma que hemos encontrado hasta la fecha de resolver problemas complejos para los que los humanos no hemos sido capaces de encontrar unas reglas claras que programar de manera explícita y que harían al algoritmo perfectamente explicable por diseño.

Seamos conscientes de ello y no busquemos explicabilidad donde no es necesaria ni caigamos tampoco en la falsa sensación de seguridad.


miércoles, 24 de noviembre de 2021

Algoritmos y el valor de la vida humana: la cosa puede no ser tan evidente

Marcar indicadores para un proceso o actividad, reducir a números una realidad compleja, es una forma efectiva y normalmente razonable de hacerla manejable y también de gestionarla con efectividad. Pero también, es por desgracia, una forma arriesgada de modelar ese proceso, actividad o realidad.

Y más si de lo que hablamos es de la vida humana.


KPIs, indicadores, números 


En la gestión empresarial, por ejemplo, es práctica habitual (en realidad menos habitual de lo que debiera) el obtener indicadores del funcionamiento de la compañía. Indicadores financieros como ingresos, margen o EBITDA. Indicadores operativos como tiempos medios de ejecución de procesos (procesamiento de pedidos, entrega de pedidos, atención a llamadas, aprovisionamiento de materiales, fabricación, etc). Indicadores de satisfacción de cliente (como el famosos NPS, Net Promoter Score) o de clima laboral. Etcétera, etcétera, etcétera.

Hablamos de KPI (Key Process Indicators), OKR (Objectives & Key Results) y hacemos, o deberíamos hacer informes, cuadros de mando (integrales o no) y, si estamos en una compañía digitalmente avanzada y muy 'data-driven', tal vez hasta analítica predictiva.

 

El riesgo de los indicadores


Sin embargo, la simplificación que supone reducir un fenómeno a un indicador, una simplificación que en buena medida es 'parte de su gracia', no está exenta de riesgos.

Un indicador, por un lado, al ser una simplificación (y muy grande) puede estarnos ocultando una realidad más compleja y no permitirnos avistar algún fenómeno, quizá alguna causa raíz, que nos permitiría tomar mejores decisiones.

Quizá peor aún, un indicador que se convierte en objetivo, con frecuencia, incentiva un comportamiento. Si medimos ingresos por un producto concreto y ponemos un objetivo más exigente que en otros, nuestra fuerza comercial tenderá a concentrarse en vender ese producto y quizá no otros. ¿Es eso lo que queremos? Puede que sí...o puede que no.

Más claro aún. Si ponemos como indicador de un contact center un tiempo medio de atención bajo, como forma de hacer ese contact center más eficiente y aumentar su capacidad efectiva de atender llamadas, estamos sin embargo incentivando una mala atención (lo digo por experiencia), animando, sin pretenderlo, a los agentes del contact center a cerrar los asuntos en falso, sin una verdadera resolución o derivándolo a otras unidades, ya que así deja de contarles a ellos el tiempo. ¿Recibe el cliente una mejor atención? Claramente, no. Y sin embargo, visto en abstracto, una atención rápida es un valor positivo, incluso para el cliente.

Por eso es preciso elegir muy bien los indicadores, proponer un juego de KPIs que se equilibren entre sí y en que unos compensen los vicios que otros generan  y no olvidar nunca, cuál es el verdadero objetivo, qué estamos realmente queriendo medir e incentivar.

Se imponen, como defiendo con tanta frecuencia, el conocimiento y el rigor. Sin mitos ni lugares comunes: conocimiento y rigor.


El valor de la vida humana


Y, claro, si establecer indicadores y valores numéricos es delicado en el mundo económico y empresarial ¿Qué pasa ahora si queremos poner un valor concreto, económico, en dólares o euros, a una vida humana?

La idea, en un primer momento, parece repulsiva, y nos asusta y pone en guardia con sólo oírla.

Pero, como en todo lo demás, y si de decisiones hablamos, conviene ser racionales y entender de qué hablamos y sus consecuencias.

Y comento esto a raíz de algo que he leído en el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig. Comentan el caso, bien es verdad que con muy poco detalle, en que más valdría haber asignado ese valor económico a una vida humana.

¿De qué contextos hablamos? Pues, claro, de casos en que la vida humana, de alguna manera, corre peligro, transporte sanitario (ambulancia), decisiones de salud pública, decisiones medioambientales, etc. Cuando queremos adoptar una política, unas directrices, parece que 'el algoritmo' nos lleva a meter el valor de la vida humana en la ecuación puesto que, uno de los resultados de una decisión u otra es el afectar a un mayor o menor número de vidas, quizá de forma fatal. En ese tipo de decisiones, lo hagamos de manera explícita o implícita, el valor de la vida humana está siempre en la balanza. Así lo indican los autores:

 

Although nobody feels comfortable with putting a value on human life, it is a fact that tradeoffs on matters of life and death are made all the time.


Nuestros sentimientos, puede que también nuestras normas morales, pueden impedirnos o al menos hacer que nos resistamos a asignar un valor económico a una vida humana. Es comprensible y difícil de criticar. Sin embargo, puede no ser la mejor postura.

Aunque no lo detallan, y entonces no puedo juzgar mucho más, los autores aportan el ejemplo, descrito por Ross Shachter, en que una agencia gubernamental (entiendo que norteamericana) tenía que decidir sobre la eliminación de elementos construidos con amianto, un material, al parecer, cancerígeno. Cabe suponer que eliminar ese amianto de manera global en las escuelas y colegios, debía ser una tarea compleja y, sobre todo, costosa. La agencia gubernamental subcontrató el estudio a una entidad externa, la cual asignó un valor económico a la vida de los niños, hizo su estudio y concluyó que la decisión razonable era eliminar el amianto de las escuelas.

Aunque nos puede erizar la piel el ver valorada económicamente la vida de un niño, lo cierto es que la la conclusión del estudio es la que, al menos con el corazón en la mano, todos consideraríamos que es mejor, dado que hay vidas, y además vidas infantiles, en juego: eliminar el amianto.

Sin embargo, la asignación de un valor económico a la vida de un niño, resultó inadmisible para la agencia gubernamental, quien descartó el informe. En su lugar llevó a cabo otro estudio en que no se asignaba valor económico a la vida de los niños. ¿Cuál fue el resultado? No eliminar el amianto.

¿Se observa la paradoja? Según nos indican los autores, el eliminar de la ecuación el valor económico de la  vida de los niños, supuso, de facto, devaluar esas vidas, darles menos importancia y, por ello, decidir que la mejor opción racional era mantener el amianto, o lo que es lo mismo, ahorrarse el coste de esa retirada pero arriesgando la vida de esos niños.


Conclusión: conocimiento y rigor


¿Qué nos enseña todo esto? Pues diría que se trata, de nuevo, de una llamada al conocimiento y al rigor.

No nos dejemos llevar por criterios simplistas, viscerales o emocionales cuando estudiemos formalmente fenómenos, cuando adoptemos decisiones y cuando elijamos números, indicadores o algoritmos que apoyen esas decisiones.

Ni en el ámbito económico ni en el ético.

No seamos simples ni simplistas.

Teniendo claros nuestros objetivos empresariales en unos casos, y nuestros criterios morales en otros, actuemos con cabeza, con conocimiento y con rigor, de forma que esa elección de indicadores y algoritmos, esa toma de decisiones, nos lleve realmente a donde queremos llegar y no a cualquier otra parte.

Puede haber vidas en juego.


lunes, 22 de noviembre de 2021

El efecto certeza o los motivos para la irracionalidad

En un artículo que publicaba la semana pasada, el titulado 'Racionalidad e Inteligencia artificial: teorías normativas versus descriptivas', comentaba cómo, a pesar de lo que quisiéramos pensar, el ser humano no es completamente racional y que, de hecho, con no escasa frecuencia, exhibe un comportamiento claramente irracional y un comportamiento que, precisamente por esa irracionalidad, se separa del tipo de comportamientos que podemos esperar de los robots y la inteligencia artificial... mucho más racionales.

En el mismo libro que inspiraba ese post, el popular 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, se comentan también algunos de los motivos que explican esa irracionalidad humana.

Para ello, los autores mencionan el denominado efecto certeza introducida por Daniel Kahneman y Amos Tversky ya en 1979 en el artículo 'Prospect theory: an analysis decision under risk' donde presentaban la teoría prospectiva, como una alternativa a la teoría de la utilidad, como explicación de las decisiones humanas. Según esa visión, las personas no buscan tanto la maximización racional de una utilidad sino que se ven fuertemente atraídas por las ganancias ciertas.

Para esa especie de paradoja de la racionalidad humana, se nos identifican tres posibles razones:


  • Las personas quizá prefieren evitar el trabajo computacional. Elegir la opción más cierta, se 'tira' por el camino más fácil, evitando farragosos cálculos de probabilidades.

  • Las personas podrían desconfiar de la legitimidad de las probabilidades teóricamente conocidas. Pudieran pensar, por ejemplo que no es cierto que tirar una moneda al aire suponga igualdad de probabilidades de cara y cruz.

  • Por último, y personalmente me parece lo más interesante, las personas pudieran estar decidiendo conforme, no sólo a la utilidad objetiva, sino también conforme a su estado emocional. En ese sentido, una persona se sentiría muy mal si pierde una apuesta optando por la opción más arriesgada y renunciando a la más seguro, incluso si en pura utilidad, el producto de probabilidad y ganancia favoreciese a la opción arriesgada.


Se trata sólo de hipótesis, pero parecen bastante creíbles.

Y lo que ahora me pregunto es si tiene sentido o algún interés que una máquina, un algoritmo, un robot se comportase de forma similar a la humana, con esas 'no racionalidades' o si tiene más sentido que dejemos la racionalidad pura en manos de las máquinas y dejemos que las personas sigamos siendo lo irracionales que nuestra naturaleza parece exigirnos.


miércoles, 17 de noviembre de 2021

Racionalidad e Inteligencia artificial: teorías normativas versus descriptivas

Con frecuencia se compara la inteligencia artificial con la inteligencia humana.

En el fondo es comprensible, aunque a veces conduzca a malos entendidos o a mitos. Al fin y al cabo, la inteligencia humana y sus capacidades cognitivas son, al menos en ocasiones, no siempre. la inspiración de la inteligencia artificial. Y al fin  al cabo, también, la inteligencia humana y sus capacidades cognitivas son el objetivo en ocasiones, no siempre, de la inteligencia artificial.

Sin embargo, a pesar de narrativas fantasiosas, inteligencia humana y artificial no son lo mismo, no funcionan igual. 

Bueno, para ser más rigurosos, es muy poco probable que funcionen igual. Y digo que es poco probable, en lugar de afirmar rotundamente que funcionan de manera diferente, porque sabemos cómo funcionan los algoritmos de inteligencia artificial, pero no sabemos, salvo por comportamientos observables y algunas manifestaciones fisiológicas y anatómicas no concluyentes, cómo funciona en realidad el cerebro humano. 

No conociendo el funcionamiento íntimo del cerebro, sólo podemos juzgar, en el fondo, según su manifestación externa. En esa manifestación externa, la inteligencia artificial busca en ciertas aplicaciones, precisamente, emular el razonamiento y comportamiento humano, y en ocasiones se aproxima bastante, todo hay que decirlo. 


Sobre la racionalidad


Pero se manifiestan diferencias y una de ellas afecta a algo que creemos tan humano y de lo que tanto nos enorgullecemos, y al menos parcialmente de manera justificada, como es la racionalidad. Pensamos que el hombre es un ser racional. Y lo es...pero sólo hasta cierto punto.

Aspectos como el impacto de las emociones, la incapacidad en ocasiones para detectar y entender toda la información disponible, o formas simplificadas de reaccionar que quizá sean en general un acierto evolutivo pero que ocasionalmente pueden ser disfuncionales, hacen que nuestro comportamiento no sea siempre tan racional como pensamos.

Sin embargo, los algoritmos si suelen ser racionales, lo son en la mayoría de los casos. En realidad, lo son casi siempre salvo cuando, usando machine learning, les enseñamos a imitar a los humanos no con base en reglas sino en observaciones.


Teorías normativas y teorías descriptivas


Y me viene esta reflexión a la cabeza leyendo el libro 'Artificial Intelligence. A modern approach' de Stuart Russell y Peter Norvig, una especie de manual y Biblia de la inteligencia artificial. Y me surge, en concreto, leyendo a propósito de la teoría de la decisión, una disciplina que busca algoritmos para la adopción de decisiones, en general intentando maximizar una función de utilidad, es decir, una especie de trasposición algorítmica de la teoría ética consecuencialista, con la salvedad de que la teoría de la decisión no se suele ocupar de cuestiones morales sino de otras mucho más prácticas o incluso lúdicas (como juegos).

En ese ámbito, los autores nos recuerdan que la teoría de la decisión es lo que se llama una teoría normativa, es decir, describe cómo debe de comportarse un agente racional, un agente que de forma rigurosa, busca maximizar su utilidad. 

Y oponen esa idea a las teorías descriptivas, que explican el comportamiento de agentes no racionales... como los seres humanos. Unas teorías que quizá podamos encontrar en campos como la economía, especialmente la economía conductual, la psicología o la sociología.


En conclusión


Así que, existen algunos paralelismos entre la inteligencia artificial y la humana y una cierta inspiración de la primera en la segunda, pero también existen claras diferencias y una de ellas afecta a la racionalidad. A diferencia de los humanos, los algoritmos de inteligencia artificial sí son racionales...salvo cuando les enseñamos a imitarnos, claro.


viernes, 12 de noviembre de 2021

La Transformación Digital vista por Tom Siebel

'Digital Transformation: survive and thrive in an era of mass extinction' presenta la particular visión que, sobre la transformación digital tiene quien ha sido un gran actor del mundo digital desde hace años: Tom Siebel. Una visión que pone bastante énfasis en la tecnología, apostando en concreto por cuatro tecnologías como las más transformadoras, a saber, cloud computing, big data, inteligencia artificial e Internet de las Cosas. Una visión donde también juega un papel importante la visión de plataforma tecnológica y una visión, en fin, que seguramente no es ajena al negocio y actividad que Siebel preside en el momento de escribir este libro: C3.ai.

El libro se estructura en once capítulos, a saber:
  • '1. Punctuated equilibrium:' Utiliza como ilustración de lo que sucede con lo digital y la transformación digital la teoría del equilibro interrumpido ('punctuated equilibrium'). Según esta teoría la evolución se produce mediante 'estallidos' que provocan extinciones masivas y que son seguidos de equilibrios. Siebel entiende que, igual que eso sucede en la historia natural, ocurre también en el mundo de los negocios y que la irrupción de lo digital es uno de esos estallidos y que provocará la extinción masiva de las empresas que no se sepan adaptar. Además, anuncia ya que, en su concepción, cuatro son las tecnologías clave: la intersección entre Cloud Computing, Big Data, Internet de las Cosas e Inteligencia Artificial.

  • '2. Digital Transformation:' Presenta la transformación digital como una ola de cambio que ha sido precedida por otras dos: digitalización e Internet y hace una llamada a la transformación. Finaliza con un recorrido a lo largo de efectos de la transformación digital.

  • '3. The Information Age Accelerates:' Hace un recorrido rápido por las tecnologías y soluciones que considera más relevantes varias de las cuales desarrolla en los siguientes capítulos. Así habla, sucesivamente, de cloud computing, virtualización y contenedores, cloud híbrida, big data, inteligencia artificial, machine learning, deep learning, internet de las cosas y arquitectura orientada a modelos.

  • '4. The Elastic Cloud:' Con este capítulo inicia una parte del libro en que explica las tecnologías que considera están dirigiendo el cambio. En concreto, en este caso se centra en Cloud Computing. Comienza mostrando la evolución desde los mainframes y la aplicación de la virtualización para acabar en la cloud pública. Explica las características fundamentales de la nube y sus modelos de servicio y finaliza pasando revista a los beneficios que trae consigo incluyendo la conversión de CapEx en OpEx.

  • '5. Big Data:' Segunda tecnología clave. Big Data. Comienza presentando algunas ideas iniciales sobre Big Data. Luego dedica bastante espacio a contar la historia del almacenamiento desde 1940 culminando con el viaje de este almacenamiento hacia la nube. Luego analiza brevemente la evolución de Big Data y finaliza explicando los beneficios de Big Data y los retos que supone para las empresas.

  • '6. The AI Renaisanse:' Se centra ahora en la tercera tecnología clave: Inteligencia artificial que presenta como un nuevo paradigma en computación. Pasa revista a su historia incluyendo los famosos inviernos y, por supuesto, su renacimiento actual y el despegue del deep learning. Hace un breve alto en el software libre en relación con la inteligencia artificial y continua presentando una visión del estado del arte actual y los beneficios que para los negocios trae consigo la inteligencia artificial tanto a nivel de las empresas como a nivel social y macroeconómico. Y fializa tratando brevemente la lucha actual por el escaso talento disponible en Inteligencia Artificial.

  • '7. The Internet Of Things:' Y este capítulo cierra la serie de cuatro dedicados a las tecnologías que Siebel considera claves. En esta caso, habla de Internet de las Cosas. Habla de sus orígenes, su crecimiento y sus impactos. En este último aspecto, se detiene a explicar cómo IoT crea valor y analiza algunos caso de uso como la red inteligente de energía, el mantenimiento predictivo, la optimización de inventarios o el cuidado de pacientes. Luego presenta una visión de mercado con los sectores más afectados y el estado del mercado. Revisa a continuación sus implicaciones para las empresas y finaliza con una visión integrada de Internet de las Cosas, Cloud Computing e Inteligencia Artificial.

  • '8: AI in Government' Habla, como el título anticipa, del uso de inteligencia artificial en las administraciones públicas, pero no de una forma general, identificando casos de uso o similar sino con una visión de geoestrategia. Destaca el valor estratégico de la inteligencia artificial a nivel mundial y analiza la carrera entre China y Estados Unidos para dominar ta tecnología. Y luego dedica la mayor parte del capítulo al asunto de la ciberguerra y las armas inteligentes. Y finaliza, de nuevo, con un breve apunte sobre el talento en Inteligencia Artificial.

  • '9. The Digital Enterpise:' Propone varios casos de empresas con una transformación digital exitosa: ENGIE, Enel, Caterpillar, John Deere, 3M y la fuerza aérea de los Estados Unidos.

  • '10. A New Technology Stack:' Un capítulo que vuelve a lo más técnico y donde Siebel afirma que se necesita una nueva pila ('stack') de software y tecnología. En esa línea, presenta una plataforma de referencia en software de inteligencia artificial e Internet de las Cosas, primero de forma más conceptual y luego concretándola en una pila basada en software libre. También revisa las herramientas existentes en la nube, ejemplificándolo con Amazon AWS, para finalizar hablando de la arquitectura orientada a modelos y la independencia de plataforma.

  • '11. The CEO Action Plan:' Y finaliza con una visión ejecutiva, hablando del CEO transformador y proponiendo un plan de acción en 10 pasos.
Destacaría tres aspectos de la visión de Siebel respecto a la transformación digital que comparo con mi propia visión que expreso en mi libro 'La Carrera Digital'.

En primer lugar, y más a nivel terminológico que de contenido, que él aplica el término transformación digital no tanto como un cambio en una empresa (aunque evidentemente habla mucho delas empresas y sus necesidad de adaptación), sino como un cambio global de la economía y los negocio. En mi terminología, transformación digital es un cambio que hace una organización, típicamente una empresa para responder a los cambios externos en tecnología, aprovechando oportunidades y respondiendo a amenazas.

En segundo lugar, y en eso se acerca a mi visión de la transformación digital, concede mucha importancia al papel de la tecnología, frente a visiones más centradas en lo estratégico, lo humano o lo comercial. De hecho su visión gira mucho, casi exclusivamente, en torno a la tecnología.

Por último, y en eso se diferencia de mi propia visión ese foco en la tecnología es, como decía, casi exclusivo, no concediendo apenas espacio a otros aspectos de la transformación, típicamente al estratégico y el humano, con solo algunas referencias breves a liderazgo y talento.

Un libro, en fin, que sin ser excesivamente original, presenta de manera correcta ideas sobre trasformación digital y que, además, tiene el indudable interés de haber sido escrito por uno de los protagonistas del mundo digital desde hace muchos años.
 
Thomas Siebel

(Fuente: Traducción y ligera elaboración propia de Wikipedia)

Tom Siebel
Thomas M. Siebel, nacido en Chicago en 1952, es un millonario americano, hombre de negocios, tecnólogo y escritor. Fue el fundador de la compañía de software Siebel Systems y es el fundador, presidente y CEO de C3.ai, una compañía de aplicaciones y plataformas software de inteligencia artificial. Es también presidente de First Virtual Group, un holding diversificado con intereses en gestión de inversiones, bienes raíces, agricultura y filantropía.

Entre 1984 y 1990, fue directivo en Oracle Corporation donde ocupó diferentes puestos. Fue CEO de Gain Technology, una compañía de software multimedia que se fusionó con Sybase en Diciembre de 1992. Siebel fue el fundador, presidente y CEO de Siebel Systems, que fue adquirida por Oracle en Enero de 2006.

En 2009 Siebel fundó C·.ai, inicialmente orientada a proporcionar software empresarial para la gestión energética. Actualmente, C3.ai proporciona una plataforma de software empresarial de inteligencia artificial para muchos usos comerciales incluyendo la gestión energética, el mantenimiento predictivo, la detección del fraude, la protección frente a blanqueo de capitales, la optimización de inventario y CRM predictivo.

Siebel es un frecuente conferenciante y es autor de los libros 'Digital Transformation: Survive and Thrive in an Era of Mass Extinction' (2019), 'Taking Care of eBusiness' (2001), 'Cyber Rules' (1999) y 'Virtual Selling' (1996).

Thomas Siebel tiene un grado en historia por la University of Illinois at Urbana-Champaign, un MBA, un master en ciencia de los computadores y un doctorado honorífico en ingeniería.

Puedes conocer más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @TomSiebel.

Ficha técnica:

miércoles, 10 de noviembre de 2021

¿Y si el sesgo algorítmico se reduce a un problema de muestreo?

El sesgo algorítmico es una de las problemáticas de naturaleza ética que más se suelen usar como ejemplo y que más se suelen explicar (no siempre con suficiente claridad ni rigor) cuando hablamos de esas implicaciones éticas de la inteligencia artificial.

En este artículo quiero comentar una posibilidad, una casuística más bien, que creo es importante tener en cuenta cuando hablamos de sesgo algorítmico. Una situación que cambia bastante la percepción ética del problema y, sobre todo, que orienta las acciones para eliminar e incluso prevenir ese sesgo.

Debo advertir de todas formas, a modo de 'disclaimer', que  tengo todavía pendiente un estudio en profundidad sobre la naturaleza técnica de los sesgos (insisto en lo de técnica), su detección (también técnica) y su prevención, así que este artículo se basa en mi casi intuición actual y pudiera tener que revisar en el futuro algún elemento una vez adquirida mayor perspectiva y profundidad sobre el tema. O, incluso pudiera recibir feedback por parte de los lectores que desafiasen algunas de mis consideraciones.


Sesgo algorítmico


Sin entrar en definiciones profundas, quizá sin ser del todo rigurosos, lo que es fácil de entender es que cuando hablamos de un sesgo algorítmico nos estamos refiriendo al caso de un algoritmo (típicamente de inteligencia artificial, y más aún de machine learning) cuyos resultados favorecen o perjudican injustificadamente a un colectivo.

La palabra 'injustificada' tiene mucha más importancia de lo que parece y lleva a importantes consideraciones... pero no me voy vamos a ocupar de ello en este artículo.

El tipo de sesgo más comentado hoy en día en medios es el de género, pero también lo puede haber de raza, de edad y así un largo etcétera en donde, si somos rigurosos, podríamos incluir otro tipo de sesgos menos mediáticos o de menores implicaciones éticas.


Motivos para el sesgo algorítmico


En mi opinión actual, y dudo que cambie de opinión al respecto cuando consiga más información, existen muchas causas posibles para un sesgo algorítmico. 

Las consecuencias eventualmente negativas de un sesgo algorítmico pueden ser de naturaleza ética y la literatura al respecto se centra en ellos. En efecto, si se produce un sesgo, y por tanto una eventual discriminación, de personas por motivo de género, edad o raza, caemos en el campo de los derechos humanos y, por tanto, las consecuencias son fundamentalmente éticas.

Estoy convencido que, aunque mucho menos comentado en la literatura, el sesgo algorítmico puede tener otro tipo de consecuencias completamente diferentes a las éticas: económicas, de seguridad, etc

De todas formas, incluso en el caso más comentado de consecuencias éticas, el origen, el motivo por el que se produce el sesgo, no tiene por qué ser (de hecho creo que en la mayoría de los casos no es) de naturaleza ética. 

Creo que existen varias categorías de causalidad para el sesgo, pero esa categorización es algo de lo que no voy a ocuparme ahora y espero hacerlo en algún artículo futuro, cuando haya avanzado más en mi investigación y reflexión.

Ahora sólo me voy a centrar en una de esas eventuales categorías: el error de muestreo , mejor dicho, la mala selección de la muestra.

Recordemos que en los algoritmos de machine learning hay una fase de entrenamiento en que debemos conseguir un conjunto amplio de ejemplos, con mucha frecuencia (aprendizaje supervisado) etiquetarlos para marcar la respuesta esperada, mostrárselos al algoritmo y que éste aprenda con base en esos datos.

Como no es práctico, ni en general posible, acceder a todos los datos, cuando entrenamos al algoritmo, extraemos un subconjunto de casuísticas de las que se dan (o se han dado, más bien) en la vida real. Esa toma de un subconjunto de datos es lo que en estadística se denomina muestreo. Pues bien, de cómo elijamos esa muestra, de cómo sea de representativa de la población de la que es extraída, dependerá la calidad y extrapolabilidad de las conclusiones que obtengamos, en este caso del entrenamiento a que sometamos al algoritmo.

La idea ya se va entendiendo ¿no?

Si para entrenar a un algoritmo elegimos un conjunto de datos con una muestra no representativa de la población, sus resultados no serán del todo válidos, probablemente estarán sesgados en algún sentido.

Aunque no conozco el detalle del algoritmo ni su entrenamiento, tengo pocas dudas de que el famoso caso de algoritmo de visión artificial que clasificaba a las personas de color como gorilas, es un caso de error de muestreo: el algoritmo no distinguía a las personas de color como personas porque en sus datos de entrenamiento la inmensa mayoría de los ejemplos eran personas blancas.  Mala selección de la muestra.


Técnicas de muestreo


Lo cierto es que desde hace ya muchísimo tiempo, la estadística ha estudiado la problemática del muestreo y ha definido las técnicas de muestreo para conseguir muestras representativas de las poblaciones estudiadas. Y sus motivaciones para hacerlo no ha sido especialmente éticas, sino científicas y prácticas, a saber, que las conclusiones de la inferencia estadística fuesen válidas.

Y esto es afortunado: disponemos de unas técnicas científicas, rigurosas, documentadas y maduras para seleccionar muestras representativas de una población. 


Si el sesgo se reduce a un problema de muestreo


Así que, si el problema del sesgo algorítmico se reduce a un error de muestreo, tenemos varias consecuencias que creo muy interesantes e incluso positivas.

La primera: disponemos de técnicas conocidas para eliminarlo.

La segunda, ese sesgo no solo se puede eliminar sino que también se puede prevenir, es decir, no necesitamos, no debemos, esperar a comprobar a posteriori que un algoritmo entrenado se comporta de forma sesgada, sino que se puede evitar el sesgo desde el mismísimo inicio, aplicando un poco la idea de la 'etica desde el diseño'.

Tercero, aunque la consecuencia del sesgo puede ser ética, el origen no es realmente ético. No es ni siquiera estrictamente técnico (no es una mala definición del algoritmo o de su mecanismo de aprendizaje). En realidad es un error metodológico, debido seguramente en muchos casos al desconocimiento y quizá en otros a la dificultad y/o coste de obtener una muestra representativa.

Estaríamos hablando no de motivaciones éticas o de limitaciones técnicas sino, simplemente, de una mala praxis.

Y esto en el fondo son buenas noticias porque, aunque no nos podemos alegrar nunca de una mala praxis, ésta es mucho más fácil de identificar, reorientar y evitar. Mucho mejor eso que pensar una intrínseca limitación técnica de los algoritmos o, peor aún, que imaginar unos científicos de datos o unos ingenieros maliciosos e intentando hacer daño o discriminar ¿no?


Conclusión


Tengo claro que el origen del sesgo algorítmico es diverso y que no en todos los casos ni mucho menos se va a tratar de una problemática de muestreo.

Pero también estoy razonablemente seguro de que en algunos casos ese error de muestreo está en el origen, total o parcial, de los sesgos algorítmicos.

Y eso creo que hay que conocerlo, entenderlo y explicarlo. Y lo bueno, eso sí, es que nos marca un camino claro, práctico y accionable para eliminar ese tipo de sesgo.


martes, 9 de noviembre de 2021

Panorámica de la ética en Inteligencia Artificial con Mark Coeckelbergh

'AI Ethics' es un libro de carácter que entiendo divulgativo e introductorio sobre el movido campo de la ética en Inteligencia Artificial y con una mirada que, como su título hace presagiar, se centra en lo ético y filosófico y no en lo técnico por más que ese aspecto técnico se visita brevemente en los capítulos 5 y 6.

El libro, no muy extenso ni complejo, se estructura en doce capítulos, como sigue:
  • '1. Mirror, Mirror, on the Wall:' Una suerte de introducción repasa brevemente algunos de los hitos más llamativos de la inteligencia artificial, explica la necesidad de hablar sobre ética a propósito de la inteligencia artificial y luego explica el plan del libro.

  • '2. Superintelligence, Monsters, and the AI Apocalypse:' Pasa revista primero a algunas de las visiones más extremas y algunos mitos relacionados con la inteligencia artificial. Asi. por ejemplo, toca el tema de la superinteligencia, del transhumanismo, el mito de Frankenstein e incluso de la eventual trascendencia ligada a la visión transhumanista llevada a sus últimas consecuencias. Y finaliza el capítulo expresando la necesidad de superar el ruido mediático y cierto tipo de narrativas.

  • '3. All about the Human:' Reflexiona sobre la naturaleza de lo humano y algunas corrientes de pensamiento al respecto. Así, trata el asunto de la inteligencia artificial general y las eventuales diferencias entre humanos y máquinas. También aborda la visión humanista y la poshumanista.

  • '4. Just Machines?:' Anailiza las eventuales implicaciones morales de la existencia de agentes inteligentes y la posibilidad de que las máquinas o algoritmos sean agentes morales o pacientes morales. Acaba recomendando concentrar los esfuerzos en materia de ética sobre inteligencia artificial sobre preguntas más concretas y de aplicación más inmediata.

  • '5. The Technology:' una revisión técnica de alto nivel en que se explica qué es la inteligencia artificial, algunas formas de abordarla, sus aplicaciones y su impacto.

  • '6. Don't Forget the Data (Science):' Continuando un poco con esa visión ligeramente técnica, explica lo que es el machine learning, la ciencia de datos y sus aplicaciones.

  • '7. Privacy and the Other Usual Suspects:' Aborda brevemente, cuatro de las problemáticas éticas y sociales más habituales en inteligencia artificial, a saber: privacidad, manipulación, 'fake news' y seguridad.

  • '8. A-responsible Machines and Unexplainable Decisions:' Ataca un asunto algo más complejo como es el de las decisiones adoptadas por máquinas o algoritmos, la eventual atribución de responsabilidad, la trasparencia de esas decisiones y la explicabilidad.

  • '9. Bias and the Meaning of Life:' Un capítulo casi entero para tratar otro de los temas más recurrentes cuando se habla de ética e inteligencia artificial: los sesgos, aunque finaliza con una temática bastante diferente como es el futuro del trabajo, la eventual destrucción de empleo y el sentido de la vida humana en ese contexto.

  • '10. Policy Proposals:' Cambia un poco la orientación entrando en un terreno más cercano a lo legal y normativo aunque lo que hace en el capítulo es repasar un poco las ideas que existen y los trabajos en curso y llama la atención al final sobre la necesidad de definir métodos y operativizar las acciones como forma de conseguir resultados prácticos.

  • '11. Challengers for Policymakers:' hace algunas sugerencia a legisladores que incluye una ética proactiva embebiendo los valores en el diseño, una orientación práctica y de abajo a arriba, una ética positiva que no solo ponga límites sino que desarrolle una visión de lo que es una buena vida y una buena sociedad y un enfoque multidisciplinar.

  • '12: It's the Climate, Stupid! On Priorities, the Antrophocene, and Elon Musk's Car in Space' Un capítulo un poco más centrado en las orientaciones generales, como la necesidad de superar la visión puramente humana de la ética para extenderla a los seres vivientes y el medio ambiente y así dedica un cierto espacio a comentar el cambio climático y el llamado antropoceno y apuesta por lo que denomina una inteligencia artificial sostenible.
'AI Ethics' es un libro que, aunque no puede, ni lo pretende, profundizar mucho en los temas, sí proporciona una visión razonablemente completa, bien explicada y de sólida argumentación sobre las implicaciones éticas y sociales de la inteligencia artificial, algunos de los dilemas y problemáticas que se plantean, el trabajo en curso e indicaciones sobre cómo orientarlo mejor.

Una buena forma de iniciarse en la materia.
 
Mark Coeckelbergh

(Fuente: Traducción y ligera elaboración propia de Wikipedia)

Mark Coeckelbergh
Mark Coeckelbergh (nacido en 1975) es un filósofo belga de la tecnología. Es profesor de filosofía de media y tecnología en el departamento de filosofía de la University of Vienna y antiguo presidente de la Society for Philosophy and Technology. Fue anteriormente profesor de tecnología y responsabilidad social en la De Montfort University en Leicester, Reino Unido, director gerente del 3TU Centre for Ethics and Technology y miembro del departamento de filosofía en la University of Twente. Antes de trasladarse a Austria, ha vivido y trabajado en Bélgica, Reino Unido y Holanda. Es autor de varios libros incluyendo 'Growing Moral Relations' (2012), 'Human Being @ Risk' (2013), 'Environmental Skill' (2015), 'Money Machines' (2015), 'New Romantic Cyborgs' (2017), 'Moved by Machines' (2019), el libro de texto 'Introduction to Philosophy of Technology' (2019) y 'AI Ethics' (2020).

Mark Coeckelbergh nació en 1975 en Leuven, Bélgica. Fue educado primeramente en ciencias sociales y políticas en la University of Leuven (1997) antes de trasladarse al Reino Unido donde estudió filosofía. Obtuvo un título de máster de la la University of East Anglia (en filosofía social, 1999) y su doctorado en filosofía de la University of Birmingham (2003). Durante el periodo de sus estudios doctorales también pintó, escribió poemas, tocó el piano y trabajó en ética de la ingeniería en la University of Bath (Reino Unido) y el Belgian nuclear research centre SCK-CEN.

En 2003 comenzó su actividad docente en la University of Maastricht en Holanda y en 2007 fue profesor ayudante en el departamento de filosofía de la University of Twente, también en Holanda. En el mismo año recibió el premio de la Dutch Society for Bioethics (junto con J. Mesman). 

En Twente comenzó a trabajar en ética de la robótica. En 2013 se convirtió en el director gerente del 3TU Centre for Ethics and Technology. Durante su permanencia en Twente publicó muchos artículos sobre filosofía de la tecnología (especialmente robótica) y fue entrevistado de manera regular sobre la ética de la tecnología de drones. 

En 2014 fue nombrado full professor a la edad de 40, en el Centre of Computing and Social Responsibility, De Montfort University en Leicester, Reino Unido, un puesto que mantuvo hasta los inicios de 2019. En 2014 fue nominado para los World Technology Awards en la categoría ética. 

En Diciembre de 2015 se unió al departamento de filosofía de la University of Vienna como profesor de filosofía de media y tecnología. 

Coeckelbergh es el presidente de la Society for Philosophy and Technology y miembro del High Level Expert Group on Artificial Intelligence for the European Commission, miembro del Austrian robotics council (Rat für Robotik), inagurado por el ministro austriaco de transporte, innovación y tecnología, miembro del Austrian Advisory Council on Automated Mobility. 

También es miembro del comité editorial de AI and Sustainable Development, The AI Ethics Journal, Cognitive Systems Research, Science and Engineering Ethics, International Journal of Technoethics, Techne, Journal of Information, Communication and Ethics in Society, Journal of Posthuman Studies, Journal of Philosophy & Science, Technology & Regulation (TechReg) y The Journal of Sociotechnical Critique. Más aún, es socio de la World Technology Network (WTN) y finalista del World Technology Award 2017. 

Recientemente, Coeckelbergh se unió al Technical Expertise Committee en la Foundation of Responsible Robotics, junto con Charles Ess y Kevin Kelly.

Puedes saber más del autor visitando su página oficial, su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @MCoeckelbergh

Ficha técnica:

TITULO: AI Ethics
EDITORIAL: The MIT Press
AÑO: 2020 
ISBN: 978-0262538190
PAGINAS: 248

Artículos de este blog relacionados

lunes, 8 de noviembre de 2021

La inteligencia artificial como imperativo

El progresivo despliegue de soluciones basadas en inteligencia artificial parece imparable.
Y, al mismo tiempo, también el florecimiento de los discursos que magnifican sus riesgos y el eventual impacto negativo de este tipo de soluciones.

Aunque dichos riesgos existen, innegablemente, y en algunos casos no son pequeños, siempre he defendido que son muchos los beneficios a conseguir, económicos y sociales, y creo sinceramente que son además mucho mayores esos beneficios que los riesgos asociados, a pesar de no ser estos menores, precisamente.

No es este un discurso nuevo en este blog sino que forma parte de mi pensamiento e hilo argumental tanto en este blog como en mis clases o charlas.


Impacto social de la Inteligencia Artificial



En alguna ocasión ya he consignado la necesidad de emplear la inteligencia artificial para el bien, para el impacto social positivo. La más reciente en el post titulado 'Privacidad versus donación de datos: un equilibrio ético' donde, reconociendo los riesgos absolutamente reales para nuestra privacidad por el mal uso de los datos, también destacaba la necesidad de, con las debidas precauciones, aportar datos para uso en actividades de interés social como la investigación en medicina.

En el sencillo artículo de hoy sólo quiero hacer un pequeño apunte en la vertiente no ya social sino puramente económica y de negocio.


Impacto económico de la Inteligencia Artificial 



De la misma forma que creo que, con los debidos controles y exigencias éticas y legales, debemos promover el uso de la inteligencia artificial para el bien, para su empleo en aplicaciones de impacto social, también defiendo la importancia de su aplicación en la actividad económica, digamos, 'normal'. Su uso por las empresas y administraciones para mejorar su entendimiento de datos, para detectar tendencias y realizar predicciones, para automatizar procesos, incluyendo la interacción con personas mediante lenguaje natural, para dar solidez a decisiones complejas y así un largo etcétera.

Mucho es lo que podemos ganar en eficacia, en eficiencia, en agilidad y en nuevas posibilidades de productos y servicios o nuevas proposiciones de valor. Y mucho el riesgo de quedarnos atrás si no lo hacemos. Mucho, muchísimo coste de oportunidad.

Además, no existe contradicción entre la visión económica y la social. No al menos en mi opinión. El desarrollo y crecimiento económicos generan riqueza y bienestar y es por tanto bueno en sí mismo, por más que la experiencia nos enseñe que no siempre esa riqueza se reparte y distribuye de la mejor manera. Pero ese no es un problema del desarrollo económico en sí mismo, que lo entiendo como esencialmente bueno, sino de cómo lo gestionamos, donde tenemos bastante camino de mejora.

Volviendo en cualquier caso al hilo argumental de este post, es importante, es casi necesario e imperativo, el uso de la inteligencia artificial. En aplicaciones sociales y en los negocios.
 

Y en ese sentido leía hace unas semanas, en el último libro de  Idoia Salazar y Richard Benjamins, 'El algoritmo y yo' un pequeño comentario de Daniel Sarasa quien decía


Mi intuición me dice que el principal impacto negativo de la inteligencia artificial en la economía será en aquellos lugares que no la usan.


No puedo estar más de acuerdo y, en el fondo, esa frase sencilla y compacta resume la esencia del mensaje.

Sin ignorar los riesgos, sin renunciar a establecer directrices y normas, incluyendo las de carácter regulatorio, que aseguren un uso ético responsable y seguro de la inteligencia artificial, no nos dejemos asustar por mensajes catastrofistas, no renunciemos al progreso y beneficios que la inteligencia artificial nos trae.


Conclusión: la inteligencia artificial como imperativo


Renunciar a la inteligencia artificial es renunciar a una parte muy importante de nuestras posibilidades actuales de innovación, progreso y desarrollo económico. No lo hagamos. Bien al contrario, hagamos un uso abundante, y responsable, eso sí, de la inteligencia artificial.

A día de hoy, el uso de la inteligencia artificial es casi, casi, un imperativo.

viernes, 5 de noviembre de 2021

La aventura de la innovación con Valvanera Castro

'La aventura de innovar' es un recorrido abarcador por los conceptos y técnicas fundamentales que rodean al mundo de la innovación y el emprendimiento, tanto dentro de empresas establecidas como para una startup. Se trata de una visión más en amplitud que en profundidad donde el lector puede encajar las principales ideas, técnicas y tendencias que existen actualmente sobre innovación.

Ese recorrido en amplitud se estructura en once capítulos como sigue:
  • '1. Situación macroeconómica de la innovación:' Una visión de alto nivel, macroeconómica como el título del capítulo anuncia, de la situación de la innovación. Se centra en dos temas: por un lado lo que nos dicen, en ese nivel macroeconómico, tres índices globales de innovación y por otro explica el concepto de clúster de innovación, sus agentes y dónde se localizan los principales clusteres mundiales hoy en día.

  • '2. ¿Qué es innovar?:' Clarifica el concepto de innovación con sus dos componentes: el valor para el cliente y el valor para la empresa. Y luego desmonta algunos mitos que rodean a la innovación.

  • '3. Diagnóstico de innovación:' Explica cómo conocer la situación de partida de la empresa con respecto a la innovación. Para ello identifica los elementos a analizar introduciendo el modelo C3 y propone como herramienta de diagnóstico un cuestionario concreto que explica en detalle.

  • '4. Estrategia de innovación:' Tras el diagnóstico, la dirección estratégica, que comienza con un breve recordatorio de la necesidad de crear un sentido de urgencia para luego identificar los elementos que debe incluir una estrategia de innovación y pasar luego a un análisis de hacia donde dirigir la innovación, incluyendo un breve alto en la visión ambidiestra del explorar / explotar.

  • '5. Creando una cultura de innovación:' Primero de los capítulos que miran al lado humano de la innovación. En este caso, hablando de la cultura de innovación. Primero confronta las características que contraponen una cultura cerrada frente a una abierta a la innovación. Luego se detiene en los elementos de una cultura innovadora: objetivos, recursos, motivación, conocimiento, herramientas, gestión de riesgos y relaciones.

  • '6. El líder innovador:' En el segundo capítulo centrado en lo humano, se habla de liderazgo o, mejor, del líder de la innovación, comenzando, de nuevo, por confrontar el líder innovador versus el gerente tradicional. Luego desgrana las características de ese líder innovador auténtico e identifica sus líneas de trabajo y finaliza explicando el impacto transformador de este tipo de líderes.

  • '7. Talento y organización para innovar:' Y finaliza la visión humana de la innovación hablando de talento. comenzando por el nivel individual y de grupo, incluyendo la necesidad de programas de 'reskilling' y 'upskilling' y finalizando con modelos organizativos, enfocándose, sobre todo, en la organización ambidiestra y la empresa ágil.

  • '8. Dónde innovar. Tipos de innovación:' Un capítulo algo ecléctico donde primero se analiza el papel de la tecnología en la innovación y se identifican las tecnologías exponenciales actuales para luego saltar al concepto de organización exponencial. A continuación identifica tipos de innovación según tecnología e impacto en el mercado (incremental, disruptiva, sostenida y radical) para finalizar introduciendo la idea de la innovación en modelos de negocio.

  • '9. Nodelos de innovación:' Analiza modelos de innovación corporativa incluyendo los que forman parte de la innovación abierta: exploración, hackathons, incubadoras, aceleradoras, capital-riesgo, alianzas estratégicas y adquisiciones. Luego identifica tres retos y varias mejores prácticas para la innovación corporativa.

  • '10. Proceso de innovación:' Aunque brevemente, describe los procesos de innovación y emprendimiento más en boga actualmente: design thinking, customer development y lean startup. Luego identifica y describe ocho fases de un proyecto de innovación y finaliza explicando el enfoque ágil de la innovación.

  • '11. Contabilidad de la innovación:' Capítulo final con tres aspectos muy propios de la gestión de la innovación. En primer lugar analiza cómo priorizar y asignar recursos entre las opciones de innovación que componen el porfolio. Luego revisa la financiación estudiando las rondas de financiación y la financiación incremental. Y, finalmente, explica cómo medir el proceso de innovación para lo que identifica una serie de métricas.

El libro utiliza, como inspiración e hilo conductor, a lo largo de todo su desarrollo, el primer viaje alrededor del mundo de Magallanes y, de hecho, cada capítulo se abre con algún tipo de texto o cita relativo a la navegación y que arroja una suerte de luz o inspiración para el desarrollo que sigue.

'La aventura de innovar' es un libro muy completo y perfectamente accesible, que sirve, sobre todo, para conocer de forma global el estado del arte actual en materia de innovación y para abrir punteros a posibles áreas de investigación posterior.

Imprescindible para cualquiera interesado en innovación y emprendimiento y que desee una visión completa y actualizada de este campo.
 
Valvanera Castro

(Fuente: Información aportada por la autora)

Valvanera Castro
Valvanera Castro Fernández, es consultora empresarial, mentora y profesora, especializada en innovación, marketing y gestión de proyectos.

Ha ocupado puestos directivos, a nivel internacional, en el área de marketing e innovación, en diversas compañías multinacionales (Selena Group, Sylvania, Renova, Johnson Wax y Altadis).

Fue miembro representante en la Unión Europea, para el desarrollo de la Directiva Europea sobre el reciclado de aparatos eléctricos y electrónicos y la gestión de sus residuos (Directiva 2002/96/CE RAEE) y miembro fundador de Ambilamp (entidad sin ánimo de lucro para la recogida y tratamiento final de los residuos de lámparas y luminarias).

Ha sido promotora de varias startups, iniciándose en el mundo del emprendimiento en 2002 con Empleosalud.

Actualmente, es Senior Innovation Consultant en Talenmo y mentora en Fundación para el Conocimiento Madrid (madri+d) y AMCES (Asociación de Mentoring), colaborando en el desarrollo de startups de muy diversos sectores. Participa en el Panel de Expertos de GEM Madrid (Global Entrepreneurship Monitor).

Es directora académica de varios programas, directora y mentora de proyectos y profesora en Escuela de Organización Industrial (EOI).

Es miembro del Foro de Humanismo Digital EOI, un think tank para la reflexión y el debate sobre temas de actualidad donde se cruzan lo técnico y lo humanístico,

En 2020 fue reconocida por el Ministerio de Educación Superior, Ciencia y Tecnología de República Dominicana, por sus aportes para la innovación y el fortalecimiento de la cultura emprendedora. Además, en 2015 fue reconocida como mejor profesora en la Escuela de Organización Industrial (EOI).

Puedes saber más de la autora consultando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @Mavalvanera.

Ficha técnica:

EDITORIAL: Anaya Multimedia
AÑO: 2021 
ISBN: 978-8441544161
PAGINAS: 239