lunes, 30 de agosto de 2021

Big Data, Machine Learning y la democracia automática

Es éste post especulativo, ligeramente transgresor, casi un escenario de ciencia ficción. Me planteo: ¿sería posible automatizar la democracia o, más exactamente, la participación ciudadana en la política y la administración? 

Vamos a ver algunas ideas al respecto, algunas reflexiones al vuelo, más unas ideas espontáneas que un estudio pormenorizado.


Las bases tecnológicas: Big Data, Machine Learning e Internet de las Cosas.


Tenemos, no cabe duda, tecnología muy avanzada para el tratamiento de datos y la analítica. Tenemos, fundamentalmente, Big Data y Machine Learning pero también sensores e Internet de las Cosas.

Big Data nos aporta la capacidad de tratar, en tiempo real o cuasi-real, volúmenes ingentes de datos incluyendo datos no estructurados (imágenes, vídeo, texto libre...). Y para ello se apoya en componentes tecnológicos como los sistemas de ficheros distribuidos, el procesamiento distribuido, las bases de datos NoSQL, etc. Sobre esos datos los sistemas de Business Intelligence tradicionales ya nos permiten hacer interesantes cálculos, informes e indicadores. 

Pero tenemos además, la inteligencia artificial y muy especialmente el machine learning. Y ello nos permite procesamientos muy avanzados de datos, procesamientos que incluyen el entendimiento del lenguaje natural, la detección de sentimientos, la clasificación de imágenes, el reconocimiento facial, etc. Y, además, nos aporta capacidades analíticas para detectar patrones y correlaciones (muchas de ellas no detectadas por los humanos) y clasificar poblaciones mediante afinidades diversas. Aún más, nos permite hacer predicciones del comportamiento de variables de todo tipo.

Y, como complemento, tenemos muchas formas de obtener datos. No se trata sólo de las bases de datos de los sistemas de información 'de toda la vida'. Se trata también de los datos presentes en las redes sociales, de los captados mediante sensores de todo tipo incluyendo cámaras y micrófonos o todo tipo de dispositivos integrados en el Internet de las Cosas.


El conocimiento del ciudadano y la democracia automática


Esa combinación de tecnologías nos permite, pues, conocer fenómenos y realizar predicciones sobre ellos. ¿Qué pasa si ahora el fenómeno que queremos entender, reducir a patrones y predecir es el comportamiento y las preferencias de los ciudadanos?

Bien, las administraciones públicas ya disponen de muchos datos sobre los ciudadanos: datos, por ejemplo, laborales, sanitarios y fiscales. Datos sobre localidad de residencia y propiedades inmobiliarias, de vehículos, etc.

Junto con estos datos, las administraciones podrían recabar datos públicos, ya sea a nivel individual o agregado, presentes en redes sociales e, incluso, datos sobre movimientos de personas (tráficos o itinerancia de dispositivos móviles) y así un larguísimo etc

Y, aunque sujeto a cierta controversia y a límites éticos y legales, podrían recabar datos de cámaras de vigilancia, de tráfico, etc.

Además, las administraciones pueden hacer, y hacen de hecho, estudios sociológicos que permiten obtener otro tipo de informaciones como opiniones, inquietudes o intenciones de voto.

Es decir, las administraciones disponen de todo tipo de información sobre el ciudadano y posibilidad de obtener e integrar muchos más datos. Si a todo ello se le aplican de forma inteligente las tecnologías de Big Data y Machine Learning, parece se podría conocer con mucho detalle la realidad de la ciudadanía y, sobre todo, y relativo a la temática de este artículo, sus preferencias no sólo comerciales (que analizan ya las empresas) sino también ideológicas: posicionamiento en cuanto a, por ejemplo, impuestos, inmigración, servicios sociales, iniciativa privada, educación, etc.

Parece que la esencia de la democracia es que los ciudadanos puedan participar en los asuntos públicos expresando su opinión, normalmente a través de unos representantes por ellos elegidos y en algún caso de una forma más directa mediante referénda u otros mecanismos de participación directa. Pero ¿Qué pasaría si lo que quiere de manera agregada la ciudadanía fuese perfectamente conocido con base en la recopilación de datos de todo tipo, la detección de patrones sobre esos datos y la realización de predicciones de preferencias ante problemáticas actuales o futuras? ¿Qué pasaría si los gobernantes, quizá más tecnócratas y menos políticos, decidiesen y actuasen conforme a lo que dicten las preferencias de los ciudadanos según se obtuviese de esos datos procesados? 

Ese escenario es el que apunta brevemente, lo cual no supone una propuesta sino solo la expresión de una posibilidad, Ángel Gómez de Ágreda en su libro 'Mundo Orwell: Manual de supervivencia para un mundo hiperconectado' y que me ha inspirado para este artículo. En concreto, el párrafo clave es en el que nos dice:


El conocimiento del ciudadano a través de los datos adquiridos se plantea en ocasiones como una alternativa a la misma democracia, o a las consultas populares. No existiría la necesidad de preguntar una opinión que ya se conoce.


Si eso fuese así, si llegásemos al punto en que tuviésemos suficientes datos, y modelos analíticos y predictivos suficientemente potentes y ajustados como para de una forma acertada expresar la opinión de la ciudadanía, podríamos encontrarnos ante lo que he denominado democracia automática: una democracia en que los ciudadanos no participarían de manera directa porque no sería necesario, porque lo que pensasen en su conjunto sería perfectamente conocido. La participación sería indirecta, mediante la generación de datos en su día a día, quizá complementada con la participación en sondeos o, quizá, manifestaciones y actos públicos.

Sería un modelo de democracia probablemente algo más eficiente, que, paradójicamente, pudiera estar más cercana a la opinión de la ciudadanía pero... ¿es realmente viable? y, sobre todo ¿es deseable?


¿Es viable una democracia automática?


Desde un punto de vista técnico, probablemente sea mucho más viable de lo que parece. 

Creo que es viable (o cercano a la viabilidad) en el sentido de que las bases tecnológicas fundamentales ya están puestas aunque, quizá, solo quizá, pudiéramos necesitar idear e implantar formas de capturar algún dato necesario del cual no dispongamos hoy en día o pudiéramos tener algún problema de capacidad (de almacenamiento y proceso) ante la magnitud de la información requerida.

Eso sí, aparte de la pura tecnología de base, identifico como mínimo dos tareas bastante hercúleas a realizar desde el punto de vista técnico para su implantación:

  • Procesamiento e integración de todos los datos necesarios y, cualquiera que haya trabajado con fuentes diversas de datos sabe lo complejo, farragoso, laborioso y largo que es este punto.

  • Desarrollo y prueba de todos los modelos analíticos y predictivos necesarios, unos modelos que, aparte de ser probablemente muy numerosos, deberían ser exhaustiva y exquisitamente probados (y puede que en algunos casos hasta nos faltasen criterios sobre cómo probarlos correctamente).

Pero mucho más complejo serían, me parece, otros aspectos de 'implantación' que no tienen que ver con el ámbito técnico, temas como el masivo cambio legislativo y normativo necesario, el cambio a gran escala de procesos y procedimientos de administración y gestión públicas y un enorme cambio que podríamos denominar 'cultural', ya que toda la ciudadanía debería aceptar y acostumbrarse al nuevo esquema. Y el establecimiento del mecanismo para seleccionar a las personas que, aunque fuese con base en lo que indicasen los modelos, deberían decidir y actuar.

Todo esto hace que, aunque estrictamente hablando, creo que esta democracia automática podría ser viable, a efectos prácticos, al menos a corto y medio plazo, roza la inviabilidad y, caso que quisiéramos llegar a este modelo, probablemente debamos avanzar poco a poco, integrando algunos datos y desarrollando modelos uy enfocados para temas concretos.

Eso en caso de que queramos esta democracia automática pero ¿es realmente deseable?


¿Querríamos una democracia automática?


Una democracia automática, tendría, creo, algunas ventajas:


  • Podría ser algo más eficiente ya que evitaría, por ejemplo los costosos procesos electorales o los inacabables y poco productivos debates parlamentarios, comisiones, etc

  • Paradójicamente, podría ser más cercana a las necesidades y preferencias de los ciudadanos. ¿Por qué? Pues porque en las democracias actuales los ciudadanos participan sólo puntualmente (elecciones y referenda). Sin embargo, en esta democracia automática, los modelos se podrían actualizar de manera cuasi-continua y proporcionar en todo momento una visión actualizada de las opiniones y preferencias de la ciudadanía.

  • Y tendría el potencial para ser más objetiva, menos sujeta a las opiniones de líderes y partidos políticos, a sus intereses y sus estrategias de negociación

Sin embargo, parece que se abren muchos interrogantes y que los riesgos pueden ser muy altos.

Podría resultar muy difícil conseguir la aceptación por la ciudadanía no sólo de la propia democracia automática sino de las decisiones así adoptadas y ello, simplemente, porque los ciudadanos, seguramente, no se sentirían realmente partícipes. Es como una especie de problema de gestión del cambio a gran escala. Una buena práctica de gestión del cambio en proyectos transformadores es involucrar lo máximo posible a las partes interesadas en ese cambio, en esa transformación, en las grandes decisiones. Ello no solo asegura tomar mejores decisiones sino que, además, promueve apoyos y aceptación. Sin embargo, en la democracia automática, aunque en teoría se tuviesen en cuenta las opiniones de los ciudadanos, sería sin su concurso directo. Sería una especie de neo-tecno-ilustración: 'todo para el pueblo pero sin el pueblo (aunque sí con sus preferencias)'. Así que, probablemente, los ciudadanos contemplasen las decisiones tomadas en la democracia automática como algo ajeno, lejano y seguramente rechazable.

Los modelos, fácilmente, pueden presentar sesgos o degradarse con el tiempo. ¿Cómo garantizaríamos que esos modelos son neutrales, que expresan realmente la opinión popular  y que, además, se actualizan de manera continua para que sigan reflejando fielmente la opinión de la ciudadanía?

¿Y quién sería la autoridad que gestionaría los datos y los modelos? ¿Cómo garantizar que los modelos no se manipularían, de manera intencionada, para conseguir unos fines o para favorecer alguna opción ideológica? 

¿No parece, sobre todo, muy evidente y difícilmente controlable, la tentación autoritaria en este esquema que tanto se acerca a una especie de 'gran hermano'? ¿No podría suceder que la democracia automática se convirtiese  realmente en una dictadura con soporte tecnológico?


Conclusión


¡Uf! Da un poco de miedo, la verdad.

Es cuestionable si esta democracia automática sería viable, al menos a corto o medio plazo, aunque es posible que sí lo sea. Pero lo que asustan bastante sus implicaciones y riesgos.

Quizá sea mejor dejarlo estar, al menos por el momento ¿no? 

Si, casi mejor dejarlo estar, pero el reflexionar sobre ello, sobre las bondades y los riesgos de esta eventual democracia automática nos puede llevar a debates mucho más urgentes y quizá necesarios  que afectan ya mismo, a nuestra propia democracia actual por un lado y, por otro, al uso de los datos y la inteligencia artificial, a cómo promover su uso para el bien, cómo garantizar su empleo ético y cómo garantizar sobre todo los derechos y bienestar de la ciudadanía.


viernes, 27 de agosto de 2021

Un compendio de leyes de la robótica

A medida que se desarrolla la robótica y, sobre todo, la Inteligencia Artificial que anima a los robots más avanzados, surgen inquietudes, unas más justificadas que otras,  en el sentido de la necesidad de establecer un marco normativo para este tipo de máquinas.

No hablamos de normas industriales de calidad, estandarización o aspectos similares, evidentemente, sino que hablamos de normas de raíz fundamentalmente ética y que tienen que ver con el comportamiento de unos robots avanzados en su propia actividad y, sobre todo, en su relación con las personas.

Todavía estamos, al menos en mi opinión, en un estado muy incipiente y aún no muy aplicable de ese tipo de normativas o 'leyes' y, en realidad, las leyes que vamos comentar en el artículo no son leyes en absoluto (no en el sentido jurídico al menos) sino, más bien, principios de actuación o directrices éticas.

Me baso en este artículo en la pequeña recopilación realizada al respecto por Ángel Gómez de Ágreda en su libro 'Mundo Orwell: Manual de supervivencia para un mundo hiperconectado'. El autor se detiene, brevemente, en tres grupos de leyes.


Las archi-famosas leyes de Isaac Asimov

El primer grupo de leyes son, como casi no podía ser de otra manera, las archi-famosas leyes de la robótica de Isaac Asimov, unas leyes que definió por primera vez en el relato 'Círculo vicioso' publicado en 1942, pero que mencionó abundantemente en relatos posteriores.  Estas leyes, por si el lector no las conoce todavía, establecen que:


  • Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

  • Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.


Asimov añadió posteriormente una cuarta ley, menos conocida, y que reza como sigue:


  • Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.


Asimov establece estas leyes en un contexto literario y de ciencia-ficción y pensando en un mundo con una gran presencia de robots y, sobre todo, unos robots humanoides muy avanzados que rozan, si no caen de lleno, en lo que hoy llamaríamos super-inteligencia y que suponen haber cruzado, o estar a punto de cruzar, la frontera de la singularidad

Siempre me ha llamado la atención que estas leyes que, como se puede comprender, son abstractas y futuristas, se propongan con tanta frecuencia como punto de partida de trabajos sobre ética o legislación en materia de robótica e inteligencia artificial. 

Creo que eso demuestra dos cosas: por un lado el indudable genio y visión de Isaac Asimov y, por otro, lo 'verdes' que estamos actualmente aún en esa materia.


Las leyes adicionales de Marc Rotenberg


Ángel Gómez de Ágreda salta a continuación a la propuesta del abogado Marc Rotemberg, profesor de Derecho y Privacidad y presidente del EPIC (Electronic Privacy Information Center) Rotemberg añade a la formulación de Asimov, dos nuevas leyes, a saber:


  • Los robots siempre deben revelar su naturaleza e identidad a los humanos cuando se les solicite

  • Los robots siempre deben ser capaces de explicar sus procesos de toma de decisiones a los humanos cuando así se les pida


Estas dos leyes nos conectan a una realidad más cercana, aunque no del todo resuelta. 

En la primera, se obliga a los robots a identificarse como tales (cosa que ya está comenzando a exigirse en el caso de agentes conversacionales software). Actualmente, en la mayoría de las interacciones entre un humano y una máquina no hay ninguna duda de que la máquina es tal, pero ya hay casos, como esas interacciones vía voz a través de un canal de tipo telefónico o chat en que puede llegar a darse la confusión. Si llegásemos a disponer de androides muy avanzados, cosa que no sucede hoy día, podría darse también esa confusión en otro tipo de robots. De ahí esa necesidad de que la máquina se identifique como tal y no pretenda ser un humano.

La segunda ley nos conecta con el problema de la explicabilidad de la inteligencia artificial, algo que se pide en muchos códigos éticos y normativos pero que, por desgracia, supone un reto técnico muy importante y que no se encuentra resuelto de manera general. En realidad creo que estamos lejos de resolverlo de manera general y al nivel que exigiría el cumplimiento de esta segunda ley adicional propuesta por Rotemberg u otras propuestas más actuales. 


La propuesta de Satya Nadella


El último conjunto de leyes recogido por Ángel en su libro, son las propuestas de Satya Nadella, a la sazón máximo directivo de Microsoft, y que son algo menos específicas de la robótica para convertirse en más generales y caer más en el ámbito de la inteligencia artificial. Las leyes propuestas por Nadella son estas seis:


  • Mero apoyo: La inteligencia artificial tiene que ayudar a los humanos a realizar sus tareas sin interferir con la autonomía humana.

  • Transparencia: las máquinas no sólo deben ser trasparentes sino también inteligibles

  • Dignidad: Los valores y principios humanos tienen que seguir en manos de éstos, nunca deben ser dictados por las máquinas o en función de ellas.

  • Privacidad: Es necesario preservar tanto los datos de las personas como los de los grupos de usuarios para establecer una relación de confianza en el uso de las máquinas

  • Responsabilidad: El diseñador es responsable de los actos de las máquinas, y las personas deben tener la capacidad para revertir cualquier acto de ellas.

  • Objetividad: las máquinas, la inteligencia artificial, deben estar libres de sesgos y prejuicios.


Los seis conceptos aquí recogidos se encuentran todos ellos muy presentes en los trabajos actuales sobre ética de la inteligencia artificial teniendo algunos ya bastante desarrollo normativo, como es el caso de la privacidad y siendo otros aún más filosóficos como la dignidad e, incluso, la autonomía.

 

Una pequeña valoración


Las leyes recogidas en este compendio son, en general, aun bastante filosóficas y en algún caso meramente aspiracionales. Además, en algunos casos, por supuesto en el de Asimov, hablan de unas máquinas y unas capacidades que no son una realidad hoy en día.

Sin embargo lo positivo de estas leyes es que ilustran, por un lado, una inquietud perfectamente comprensible y que necesitamos abordar, y, por otro, una cierta dirección de actuación, bien que pueda ser aún de alto nivel.

Cierto es que precisan en general mucha concreción desde un punto sobre todo normativo y, en otros casos, como por ejemplo en el caso de la explicabilidad, necesitan asimismo de desarrollo tecnológico.

En el ámbito normativo, y con posterioridad al libro en que he basado este artículo, se han puesto en marcha muchas iniciativas a nivel internacional que van concretando, sobre todo en el plano normativo/jurídico algunas de estas ideas, siendo especialmente relevante el trabajo en marcha en la Unión Europea que probablemente valga la pena comentar en otro artículo, así que parece que podemos esperar interesantes avances en breve.

Desde la asociación OdiseIA (Obervatorio del Impacto Social y Ético de la Inteligencia Artificial) a que pertenezco y en la que dirijo el área de relación robots-personas ya trabajamos en el seguimiento de este tipo de iniciativas y la compilación de unas leyes de la robótica más actuales y concretas.

Ya hablaremos de ello más adelante.

 

miércoles, 25 de agosto de 2021

Tendencias en ciberamenazas

La ciberseguridad es, en cierto sentido, el pariente incómodo de la tecnología o, al menos, yo personalmente no puedo evitar verlo de esa manera.

Es incómodo porque estamos hablando de amenazas, de riesgos y peligros, de elementos que ponen en jaque nuestra tranquilidad, nuestro status quo y casi nuestro modo de vida. 

Y es incómodo porque la tecnología normalmente es un elemento generador de riqueza y oportunidades de negocio. Cuando una empresa invierte en tecnología se hace más eficiente o más efectiva, o puede poner en el mercado nuevos productos y servicios o puede relacionarse mejor con un cliente. En definitiva, la tecnología en general aporta valor.  Pero no es así cuando hablamos de ciberseguridad. Salvo en los contados casos de empresas cuyo porfolio se mueve en el mundo de la ciberseguridad, para la mayoría de las compañías la ciberseguridad es más un gasto que una inversión, no aporta realmente valor sino que sólo protege, y ni siquiera de manera absoluta, frente a ataques. No suma, solo evita restar.

Y, sin embargo, es importante, enormemente importante, en el panorama actual, que las empresas, los individuos y los estados se doten de buenas armas de defensa contra todo tipo de ciberamenazas.

Me ha resultado esclarecedor en ese sentido, la exposición que hace Ángel Gómez de Ágreda en su libro 'Mundo Orwell: Manual de supervivencia para un mundo hiperconectado' donde nos ofrece una visión realista y con perspectiva global de las ciberamenazas en el mundo hiperconectado. 

En un cierto momento, este autor resume las tendencias en cuanto a ciberamenazas que compila la  Agencia de la Unión Europea para la Seguridad de las Redes y de la Información (ENISA, European Network and Information Security Agency)  en su informe 'Threat Landscape Report'.

En el libro se utiliza la versión del año 2017-2018. Pero he sentido curiosidad y he echado un vistazo a la última edición, el 'Threat Landscape Report 2020' y, del documento principal, he entresacado las diez tendencias que se apuntan como principales en 2020, un año, además, en que la omnipresente pandemia del COVID-19 también ha dejado su huella en este apartado. 

El documento lista las ciberamenazas más importantes. que se recogen en la siguiente figura:


ENISA Threat Landscape 15 Top Threats in 2020


Y, además, se identifican las diez tendencias principales en cuanto a ciberamenazas, que recogo, con transcripción literal, a continuación:


  • En ciberseguridad, la superficie del ataque sigue aumentando a medida que entramos en la nueva fase de la transformación digital.

  • Después de la pandemia de COVID-19 habrá una nueva norma social y económica que será aún más dependiente de la existencia de un ciberespacio seguro y de confianza.

  • El uso de las plataformas de redes sociales en ataques dirigidos es una tendencia importante y abarca distintos dominios y tipos de amenazas.

  • Los ataques dirigidos con precisión y los ataques persistentes a datos de alto valor (p. ej., la propiedad intelectual y los secretos de Estado) están siendo planificados meticulosamente por agentes patrocinados por Estados nación.

  • Los ataques de distribución masiva de corta duración y amplio impacto se están utilizando con muchos objetivos, como el robo de credenciales.

  • La motivación subyacente a la mayoría de los ataques informáticos sigue siendo económica.

  • Los programas de secuestro (ransomware) siguen siendo generalizados y con consecuencias costosas para muchas organizaciones.

  • Los incidentes de ciberseguridad siguen pasando desapercibidos o se tarda mucho tiempo en detectarlos.

  • Con más automatización de la seguridad, las organizaciones invertirán más en preparación usando la inteligencia sobre las ciberamenazas como principal capacidad.

  • El número de víctimas de phishing sigue creciendo, ya que utiliza la dimensión humana como el eslabón más débil de la cadena.

La sensación de amenaza es evidente y quizá lo que más preocupa esa participación creciente de estados en la organización de ataques. En cualquier caso, y como reza el propio documento:


aún queda mucho por recorrer hasta que el ciberespacio se convierta en un entorno seguro y de confianza para todos.


En efecto, estamos muy lejos de movernos en un entorno de confianza, quizá cada vez menos así que no tenemos más remedio que tratar. y seriamente, con este pariente incómodo. No tenemos más remedio que estudiar medios de defensa y protegernos en la medida de lo posible.


lunes, 23 de agosto de 2021

Los ocho principios de Amber Case para una tecnología respetuosa con la dignidad humana

La tecnología está cada vez más presente en nuestras vidas. 

En realidad, la tecnología siempre ha acompañado a la humanidad. Al fin y al cabo la tecnología es desarrollada por los humanos para ayudarles en sus diversas labores, trabajos y aspiraciones, así que nada tiene de particular que se entrelace, que se imbrique en su propia vida.

Sin embargo, tenemos la sensación, probablemente cierta, de que con la explosión del mundo digital, estamos continuamente interactuando con la tecnología, que ésta cada vez se encuentra más presente en cada cosa que hacemos y que está, incluso, transformando nuestros comportamientos y hábitos de comunicación, relación y ocio, por ejemplo. Al respecto, no tenemos más que pensar en el uso que hacemos de los smartphones y las Apps sociales en ellos presentes y cómo influye en nuestra forma de relacionarnos.

Y la perspectiva es que con el desarrollo actual y, sobre todo, el esperado, de la inteligencia artificial, la robótica o la realidad virtual, ese 'hiperpresencia' tecnológica siga aumentando y quizá condicionando nuestras vidas, casi nuestra propia esencia.

Hay, incluso, una cierta tendencia a fusionarnos de alguna manera con esa tecnología, a que ésta pase a casi integrarse con nosotros, a ser una prolongación nuestra o aumentar nuestras capacidades acercándonos al concepto de Ciborg.

En ese contexto hay ya una notoria actividad que busca un enfoque más humanista, más ecológico y más ético del uso de la tecnología. 

Amber Case
Leyendo el libro 'Mundo Orwell: Manual de supervivencia para un mundo hiperconectado' de Ángel Gómez de Ágreda me encuentro, un poco en esa línea, la descripción de los principios propuestos por Amber Case para conseguir unos sistemas algorítmicos respetuosos con la dignidad humana.

Amber Case es un personaje bastante conocido. Es una investigadora de Harvard y del MIT que trabaja entre otras cosas en el ámbito del fenómeno cíborg y que dispone, por si el lector quiere conocer algo más, de alguna popular charla TED: 'We are all cyborgs now'.

Pues bien, esta investigadora propone estos ocho principios de cara a ese respeto de la dignidad humana: 


  • La tecnología requerirá la mínima atención posible de la persona, es decir, interactuará de una forma poco invasiva en que permita a la persona mantenerse perfectamente integrada en su entorno y tenderá a ayudar a entender el contexto pero sin interpretarlo (la interpretación la debe hacer la persona)

  • Más que resolver los problemas por sí misma, actuará como herramienta auxiliar ayudando a la resolución.

  • Se mantendrá en la periferia, requiriendo atención cuando sea estrictamente preciso y durante el menor tiempo posible.

  • Partiendo de la idea de que personas y máquinas son diferentes y tienen cosas diferentes que aportar, tenderá a 'aumentar' a humanos y máquinas favoreciendo lo mejor de cada uno.

  • Aunque podrá comunicar, en general no necesitará hablar, lo cual es otra manifestación del bajo nivel de visibilidad y de atención requerida del humano.

  • Será resiliente en el sentido de que, incluso cuando se produzca algún tipo de fallo deberá mantener algún tipo razonable de operatividad y no fallar de manera competa y catastrófica.

  • Se empleará lo mínimo posible para resolver el problema lo cual, más que una característica de esa tecnología o algoritmo, implica autodisciplina por parte de las personas y no renunciar a usar sus propias capacidades humanas.

  • Respetará las normas sociales siendo, además, la tecnología la que se adopte a nuestras vidas y no al revés.


Se trata de unos principios que veo bastante diferenciados, aunque complementarios y con algún solape, de lo que se propone en el ámbito de otros trabajos referentes a la ética en inteligencia artificial aunque, por ejemplo, lo relativo al respeto por la autonomía humana sí parece bastante recogido en la propuesta de Case.

Veo también que, en realidad, los ocho principios, en realidad, casi se reducen a dos. Por un lado a reclamar que las personas se mantengan al mando, que sean las que decidan sin delegar esas decisiones en la tecnología. Y, por otro, que la tecnología se integre de forma muy natural y sin apenas requerir atención ni esfuerzo por parte del humano y sin interrumpirle en su devenir. 

Parecen objetivos loables y a tener en cuenta. Quizá, eso sí. pequen de un cierto idealismo y, la verdad, y siendo realistas, no parece que en este momento, al menos de manera general, nos estemos adhiriendo a ellos.

¿Lo haremos en algún momento?


viernes, 20 de agosto de 2021

Nanomáquinas y el concepto de robot

Quizá algunas de las expectativas más esperanzadoras de desarrollo tecnológico, de espectaculares mejoras en cuanto a materiales, tratamiento médico, energía y mucho más venga de la mano de la llamada nanotecnología. 


Nanotecnología



La nanotecnología es una actividad científico-tecnológica que se mueve en el ámbito de lo muy pequeño, de aquello que se sitúa en dimensiones de nanómetros (1nm = 10-9 m), es decir, en tamaños similares a moléculas, y donde se trabaja, precisamente, con átomos, con moléculas, con partículas.

El hecho de trabajar en esos tamaños hace que las propiedades de la materia cambien mucho, por motivos como que, en esas dimensiones, las superficies cobren mucha importancia frente a los volúmenes (a medida que disminuimos el tamaño, tenemos superficies mucho mayores por unidad de volumen) o por que empiezan a ser notables fuerzas como las de Van der Waals que, en tamaño macroscópico tienen un peso no muy alto, pero sí en el nivel microscópico o, mejor, nanoscópico.

La nanotecnología es, en realidad, no una tecnología específica sino un campo amplísimo tanto de investigación como de aplicación y muy cercano a la física y la química.


Nanomáquinas


Entre las múltiples formas de usar este tipo de tecnologías se encuentran las así llamadas nanomáquinas.

Siguiendo a Antonio José Acosta Jiménez, en su libro 'La nanotecnología. El mundo de las máquinas a escala nanométrica', se nos dice que las nanomáquina son:


máquinas que conjugan efectos mecánicos, químicos y eléctricos en la nanoescala. El objetivo de las nanomáquinas es transformar una fuente de energía (lumínica, eléctrica, mecánica, química, etc) en otra, tal y como lo hacen las máquinas en la macroescala.


En el fondo, y aunque parezca una perogrullada, se trata. simplemente, de máquinas que operan en el nivel nanométrico y por ello, y aunque en esencia sean lo mismo que cualquier otra máquina, sus principios físicos, técnicos y operativos, y sus ámbitos de aplicación son bastante diferenciados.

Así, por ejemplo, se pueden usar para diagnosticar y tratar ciertas enfermedades y dolencias, trabajando desde el interior del propio cuerpo humano mediante detección de moléculas (ej. marcadores tumorales) o liberación de fármacos. Pero también se usan, por ejemplo, en comunicaciones, en elaboración de sensores, etc

Apunta el autor mencionado, Antonio Acosta, que algunas de las nanomáquinas más interesantes son las que combinan un mecanismo de detección de alguna circunstancia (ej, detección de una célula cancerosa) con una actuación consecuente (ej. liberación localizada de fármaco) usando el patrón sensor-actuador.


¿Nanorrobots?


En ocasiones se utiliza el término nanorrobot o, simplemente, robot, para referirse a este tipo de ingenios nanométricos. 

¿Son realmente robots?

Como explico en mi libro 'Robots en la sombra', no percibo que exista un concepto universal y ampliamente reconocido del término robot. Existen definiciones, sí, pero no me parece que la literatura técnica, y ya no digamos la de divulgación y medios generalistas, utilice el término de una manera consistente y, por tanto, tampoco tenemos una vara de medir clara para decidir si el término 'robot' es correcto para estas nanomáquinas, o al menos, para algunas de ellas.

En mi libro proponía, más que una definición, una serie de características que están presentes en los robots, a saber:


  • Artificiales
  • Adaptables
  • Actuación sobre el entorno
  • Autonomía
  • Sustitutos de personas
  • Similares a personas

Si pensamos en las nanomáquinas, especialmente en las que adoptan el patrón sensor-actuador, vemos que cumplen claramente algunas de estas características: se trata por supuesto, de entes artificiales (creados por el hombre), actúan sobre el entorno (por ejemplo, las células cancerosas de un humano) y autonomía (al menos en muchos casos, no precisan su manipulación por parte de humanos sino que actúan por sí mismas).

Cumplen, pero de una forma relajada, quizá discutible, otra de las características, la adaptabilidad. Es cierto, en ese sentido, que su comportamiento no es totalmente rígido sino que se adaptan hasta cierto punto, al entorno en el que se mueven. Pero, hasta donde conozco, las nanomáquinas actuales no parecen tener las capacidades de aprendizaje ni programación que propongo en mi libro, aunque en este punto me puede faltar información y también es algo que puede cambiar en el futuro. 

En cierto modo podemos decir que actúan como sustitutos de personas. Por ejemplo, en el caso de la nanomáquina terapéutica, sustituye una tarea médica (el diagnóstico) o de enfermería (administración de fármacos). 

Lo que sí parece bastante discutible es que lo hagan de una forma similar a como lo haría un ser humano, una característica que en mi propuesta introduje, pensando en caracterizar a los robots software pero que parece casi imposible que se cumpla nunca por una nanomáquina ya que una nanomáquina, por definición, actúa en una escala, la nanoscópica, en la que no se mueven nunca los seres humanos. 

Es decir, ciertas nanomáquinas se acercan bastante a mi propuesta de caracterización de los robots pero no la cumplen completamente, especialmente en lo relativo a la similitud con la actuación humana.

Apuntado esto, también diría que, de nuevo, nos enfrentamos a un concepto, el de robot, bastante difuso y que, en el caso de las nanomáquinas más avanzadas (aquellas que usan el mecanismo sensor-actuador y quizá, quizá, con las más avanzadas posibilidades de algo parecido a una cierta programación o aprendizaje) no me repugna 'concederles el título de robot', nanorrobot para ser más exactos, aunque eso pudiera implicar una nueva revisión de lo que este término 'robot' significa en realidad y de mi propia propuesta.  


Consideración final


En cualquier caso, y consideraciones conceptuales y teóricas al margen, lo cierto es que este campo de la nanotecnología en general y de las nanomáquinas en particular, resulta por un lado apasionante y por otro un gran generador de expectativas de futuro para un mundo mucho más avanzado, eficiente e incluso ecológico.

Así que, les llamemos robots o les llamemos como queramos, vale la pena investigar y desarrollar estas nanomáquinas. 


miércoles, 18 de agosto de 2021

Desafíos para la monetización de productos de datos

No cabe ninguna duda acerca del enorme valor de los datos y lo que un adecuado tratamiento de los mismos puede aportar a una organización.

Una buena disponibilidad de datos en cantidad y calidad, y un adecuado e intenso aprovechamiento de los mismos mediante indicadores, informes y análisis, incluyendo en los casos más avanzados el uso de inteligencia artificial, puede mejorar enormemente la gestión, la detección de tendencias y problemas, la toma de decisiones y por todo ello la posición competitiva de esa organización.

Pero el uso de los datos no tiene por qué limitarse a su empleo interno para la mejora de la propia operación sino que, en algunos casos, productos basados en datos pueden incorporarse al porfolio de productos y servicios de la empresa, ya sea como un complemento a los, digamos, productos y servicios 'nucleares' o incluso convertirse en la parte principal de ese porfolio haciendo que todo el modelo de negocio gire entorno a esa 'producción' y comercialización de 'insights', análisis o incluso datos 'per se'.

Pero, claro, si vamos a monetizar los datos, si éstos van a formar parte importante de nuestra proposición de valor, debemos estar preparados para ello.

En su libro 'A Data-Driven Company: 21 lessons for large organizations to create value from AI', Richard Benjamins identifica, en efecto, tres retos que hay que afrontar si se quiere ir a una monetización de datos. Son estos:


  • Madurez: Con independencia de la forma en que evaluemos esa madurez, cosa no tan sencilla y de la que hablamos en el post anterior, lo que está claro es que si queremos ofrecer productos o servicios basados en datos debemos tener 'la maquinaria bien engrasada' en cuanto a la disponibilidad tanto en cantidad como en calidad de esos datos, así como en el procesamiento y  gestión de los mismos (obtención, gobierno, seguridad, etc). En cierto modo, esto es obvio.

  • Privacidad: Un aspecto muy importante desde el punto de vista ético legal. Dado que con mucha frecuencia los datos disponibles y los que aportan información relevante incluyen datos personales o sensibles en algún sentido, se deben aplicar adecuadamente las técnicas de agregación y anonimización y respetar las regulaciones y legislaciones existentes, muy en especial el famoso GDPR.

  • Reputación: Aunque se trate en este caso de un intangible, no basta sólo con cumplir escrupulosamente todo lo relativo a privacidad y todas las normativas existentes, sino que además es importante que se perciba entre el público y los clientes ese tratamiento ético y legal de los datos y su uso para el bien.


Como suele pasar en estos casos, formular los retos es mucho más fácil que resolverlos. Muy especialmente, el primer reto, el poner a punto toda la maquinaria de identificación, captura, limpieza y procesamiento de datos, puede ser realmente trabajoso. Pero si vamos a monetizar los datos, no cabe duda que se gestión pasa a formar parte de nuestro 'core business', así que no queda otra.


lunes, 16 de agosto de 2021

Síntomas de madurez en la gestión de datos

La madurez de una empresa en una determinada disciplina nos indica, de alguna forma, el grado en que esa disciplina se aplica dentro de la empresa, hasta qué punto ha penetrado en ella, la calidad e incluso excelencia de  dicha aplicación y la estabilidad en su uso, hasta qué punto esa disciplina ya forma parte del día a día de la empresa.


La madurez en ingeniería software


Creo que el primer ámbito donde se aplicó esta idea de la madurez, al menos del primero de que yo fui conocedor, fue en lo relativo al desarrollo software. Quizá porque la ingeniería software, y pese a ese nombre de ingeniería, se resistía (y en cierto modo se sigue resistiendo) a ser una disciplina completamente ingenieril, difícil de encajar en procesos y procedimientos perfectamente definidos, se buscó, al menos y como alternativa, esa idea de la 'madurez' en su aplicación como un conjunto de mejores prácticas que identificaban un uso estable y excelente de la ingeniería del software. 

Y ello culminó en la definición del CMMI (Capability Maturity Model Integration) que cristalizaba y daba forma más concreta a lo que significaba esa madurez y cómo identificarla y clasificarla dentro de una empresa.


Otros casos de madurez


Posteriormente he oído habla de madurez en otros ámbitos que, en general, también se refieren a disciplinas de gestión que son importantes pero difíciles de formalizar en procesos cuasi-industriales. Así, por ejemplo, también he oído hablar de madurez en el ámbito de la gestión de procesos de negocio.

La verdad es que no me causan entusiasmo sino, más bien, un cierto escepticismo, esas ideas de madurez porque me parece que, pese al loable esfuerzo que suponen, al final se siguen quedando en el campo de lo inconcreto, de lo abstracto e incluso parcialmente subjetivo.


La madurez en la gestión de datos


Leyendo el libro libro 'A Data-Driven Company: 21 lessons for large organizations to create value from AI' de Richard Benjamins me encuentro con esa idea de madurez aplicada en este caso a la gestión de los datos en la empresa, a la búsqueda de ese concento de 'data-driven'. 

En una aportación del experto Daniel Rodríguez Sierra, director de Big Data y Analítica Avanzada de Vodafone, éste afirma que la madurez en datos ('data maturity') es más un proceso que un estado y reconoce que esa madurez en los datos es difícil de definir así que renuncia en cierto sentido a aportar esa definición y, en su lugar, propone, y sólo a modo de ejemplo, una serie de efectos o síntomas que pueden indicar esa madurez en la gestión de los datos. Son estos:


  • El núcleo del negocio, el llamado 'core business' va de datos y éstos constituyen su materia prima sobre la que se construye

  • Aunque el negocio no sea un negocio nativo de datos, sí que se gestiona de manera continua mediante decisiones apoyadas en datos, soportadas por analítica avanzada y machine learning y éstas se encuentran embebidas en los procesos de negocio con una automatización creciente.

  • Existe unicidad de datos, es decir, la organización es rica en datos pero en su nivel más granular, existe una única versión de cada dato.

  • Los datos y conclusiones ('insights') se acceden de manera mayoritaria como un autoservicio para los empleados.

  • El diseño y ejecución de las actividades de cara a cliente se apoyan en predicciones y análisis causales de patrones de comportamiento de esos clientes.

  • Los datos se transforman en conocimiento valioso siguiendo unos estándares comunes que la propia organización evalúa de manera regular.

  • Existe un órgano dedicado a la cadena de valor del dato extremo a extremo que asegura la disponibilidad y adquisición de los datos y la calidad en la integración de resultados obtenidos vía machine learning en los procesos adecuados, incluyendo salvaguardas de seguridad y privacidad.


Como se puede observar, no se trata de una receta concreta medible o automatizable directamente sino de una serie más bien cualitativa de buenas prácticas o síntomas de un buen y avanzado uso de los datos.

Los ejemplos que propone Daniel Rodríguez nos hablan de organizaciones realmente avanzadas y maduras en el uso de datos, siendo el primer punto aplicable a compañías cuyo negocio son los datos y el segundo compañías (la mayoría) cuyo negocio no son los datos pero hacen un uso avanzado de ellos. 

Y me parece muy importante la idea de la unicidad del dato y la disponibilidad en modo autoservicio para los empleados que encaja muy bien con la idea de la fuente única de la verdad que comentábamos en un post anterior y con mi propio entendimiento de lo que es una buena gestión de datos.


Iniciando el camino


La imagen que traslada Herrera es avanzada, quizá muy avanzada, pero tampoco hay que asustarse. En cierto modo esa es la visión final, la aspiración. 

Cualquier empresa puede iniciar su camino hacia la gestión basada en datos con objetivo inicialmente más modestos, identificando fuentes de datos, construyendo los primeros datawarehouse o datalakes, construyendo cuadros de mando mediante sencillos visualizadores de datos, etc. Sólo con eso, se puede obtener mucho valor e iniciar ese camino hacia el data-driven en el que ya habrá tiempo de buscar la madurez.


miércoles, 11 de agosto de 2021

Datos corporativos y la fuente única de la verdad

Con el avance de la digitalización, a medida que las empresas se dotan de más sistemas y a medida, también, que existen más fuentes de información externas, las posibilidades de desarrollar capacidades de reporting y analíticas crecen en gran medida.

Crece, por tanto, la capacidad de obtención de indicadores y KPIs, de realización de informes, de implementación de cuadros de mando incluso en tiempo real o cuasi-real y también de realización de análisis, algunos incluso sofisticados empleando técnicas de machine learning.

Esa posibilidad debería caso ser considerada como una obligación de gestión y competitividad por parte de cualquier empresa. Conocer de forma sistemática y exacta la propia situación o la del mercado y disponer de datos en que basar decisiones parecen capacidades inexcusables hoy día en el entorno corporativo aunque, en mi percepción, bastante insuficientemente implementadas todavía. Unas capacidades que, además, y dentro de lo que cabe, son de una sencilla y poco arriesgada implementación.

Supuesto que la empresa decide, en efecto, aprovechar los datos de que dispone para la realización de cuadros de mando, informes y análisis, puede surgir la pregunta de quién debería procesar esos datos, quién debería realizar los análisis. Puede considerarse que debe tratarse de una actividad centralizada, que debe realizarse a nivel de compañía, o bien puede entenderse que es una función que es mejor llevar a cabo de manera distribuida, a nivel de unidad de negocio, departamento, etc,

Este es uno de los temas que trata Richard Benjamins en su libro 'A Data-Driven Company: 21 lessons for large organizations to create value from AI'. El autor analiza las características, pros y contras, de un enfoque centralizado con base en el concepto de centro de excelencia y de uno distribuido.

Y como conclusión, quizá porque es un reflejo de lo que es mi propia opinión, me quedo con la siguiente frase:


The data function always needs some notion of centralization because there should be a single source of the truth within an organization.


Según se entiende de la frase, puede existir un cierto nivel de distribución de las capacidades analíticas pero siempre con una cierta dosis de centralización que garantice una visión única, la así llamada fuente única de la verdad.

En mi propia experiencia profesional he trabajado en una empresa grande, con muchos sistemas y fuentes de datos y también con una capacitación e incluso cultura que posibilitaban y hasta favorecían los análisis departamentales e incluso individuales, algo que por sí mismo hay que valorar positivamente.

Y en ese contexto me he encontrado en diversos debates precisamente sobre si los indicadores deberían centralizarse o distribuirse y mi posición, que mantengo, es convergente con la frase de Benjamins, advirtiendo, eso sí, que ni siquiera, en el caso real que describo, hablábamos de verdaderas capacidades analíticas, sólo de indicadores e informes.

Realizar análisis a nivel de departamento, grupo o persona puede tener como ventaja un conocimiento más profundo de la realidad analizada y, quizá, una mayor creatividad y rapidez. Por tanto, no creo que se deba cerrar la puerta a esta forma de trabajo ni mucho menos, especialmente si hablamos no tanto de indicadores e informes operativos como de analítica, de análisis profundo.

Sin embargo, descentralizar la medición y obtención de indicadores puede llevar a KPIs no disponibles para toda la organización sino sólo para algún departamento que tal vez los guarde celosamente para sí. Puede llevar también a indicadores que, queriendo medir lo mismo, están basados en diferentes fuentes de datos, con denominaciones y criterios de cálculo quizá incoherentes entre sí lo que dificulta la visión conjunta y la comparativa. Y, en el peor de los casos, los indicadores y análisis pueden estar sometidos a riesgo de una cierta manipulación interesada. 

Y no puede ser así. Y no puede ser especialmente si hablamos ahora, no tanto de analítica avanzada como de reporting básico, de indicadores de desempeño empresarial, especialmente los indicadores clave, los KPI.

La descripción de la realidad objetiva de una compañía, la que proviene de datos, debería ser única. Debería existir esa fuente única de la verdad, una visión compartida en toda la compañía.

Aquellos indicadores fundamentales de la compañía, indicadores financieros, comerciales y operativos estoy convencido de que deberían obtenerse de manera centralizada y, en la medida de lo posible, y sin desvelar nada sensible, ser públicos y notorios para toda la organización constituyéndose así en esa fuente única de la verdad, una fuente de la verdad, además, trasparente, explicada, documentada y objetiva. 

Es la forma más razonable de fundamentar las decisiones de la alta dirección. Y es la forma también de que el resto de la compañía pueda entenderlas e incluso aportar ideas en un enfoque más bottom-up. Es una forma de alineamiento de empleados y unidades con la realidad de la empresa, es una forma de comunión de entendimiento e intereses y casi, casi, y bien hecha, es una forma de gestión del cambio cuando esos indicadores nos den pistas de que debemos cambiar y por qué.


lunes, 9 de agosto de 2021

Diez recomendaciones para innovar en modelos de negocio

Quizá la forma más profunda de innovación y de transformación sea la innovación en modelos de negocio. Al fin y al cabo, un modelo de negocio define la forma de operar y competir de una compañía por lo que cualquier cambio en él es importante, estratégico y, normalmente, profundo.

Se trata, por tanto de un proceso clave pero para el cual no es fácil encontrar metodologías ni recetas.

En algún post reciente ya hemos tocado algunas ideas sobre innovación en modelos de negocio con base en el libro 'The business model navigator' de Oliver Gassmann, Karolin Frankenberger y Michaela Choudury. En concreto, por ejemplo, vimos un 'decálogo para la toma de buenas decisiones estratégicas'. Hoy, y con base en la misma fuente bibliográfica, vamos a esbozar unas ideas en cierto modo complementarias de las vistas en ese artículo, mediante la revisión de un nuevo decálogo, en este caso, la propuesta con que los autores cierran el libro y donde identifican diez recomendaciones a modo de 'take away' de su obra.

Las diez recomendaciones de cara a una efectiva innovación en modelos de negocio serían las siguientes:


  • Obtener el apoyo de la alta dirección: Los autores apuntan a incrementar la conciencia sobre todo el tema de la innovación en modelos de negocio, a ser persistentes y a referirse a las mejores prácticas tanto internas como externas. Diría, sin embargo, que, en el caso de la innovación de modelos de negocio no es tanto que se deba obtener el apoyo de la alta dirección sino que debe ser ésta realmente la primera impulsora. Al fin y al cabo, modificar un modelo de negocio es pura implementación estratégica y eso es, indudablemente, tarea fundamental y característica de la alta dirección.

  • Establecer un equipo diverso: Como todo proceso innovador, también en el caso de la innovación en modelos de negocio, se beneficia de la existencia de diferentes puntos de vista que pueden aportar personas de diferentes áreas funcionales e incluso personas externas.

  • Estar preparado para el cambio y abierto a aprender de terceros: Adoptar la filosofía de que se puede y debe estar orgulloso de adoptar ideas procedentes del exterior (como alternativa al síndrome del 'no inventado aquí') y monitorizar permanentemente los cambios en el ecosistema de la compañía.

  • Desafiar la lógica dominante en la organización: Para lo cual los autores proponen la confrontación del modelo de negocio actual de la compañía con los 60 patrones de modelos de negocio que ilustran en su libro, en busca de ideas que se puedan incorporar.

  • Crear una cultura de apertura: Evitar la existencia de 'vacas sagradas' y la emisión de juicios negativos acerca de ideas de cambio en las primeras etapas de ideación.

  • Usar un enfoque iterativo con varias iteraciones: Ser conscientes de que no es fácil encontrar la idea más brillante nada más empezar así que persistir y, en el proceso, intentar identificar bien cuándo se debe pasar de la fase divergente (generación de ideas) a la convergente (selección y detalle de una opción). Además, asegurarse de validar cuanto antes las diferentes hipótesis que se usen.

  • Evitar calcular en exceso los casos de negocio: La realidad suele desmentir los planes de negocio así que no hacer cálculos en exceso y, en su lugar, aparte del proceso iterativo anterior, pensar en diferentes escenarios y definir los umbrales que el modelo de negocio debe alcanzar para considerarlo exitoso.

  • Limitar los riesgos mediante el uso de prototipos: Intentar siempre que sea posible, materializar las ideas en prototipos e intentar obtener realimentación rápida sobre el modelo de negocio y, con base en ella, modificarlo si es necesario.

  • Proporcionar al nuevo modelo de negocio suficiente contexto para que crezca exitosamente: Hacer de la innovación de modelo de negocio un proceso continuo, dando tiempo a los equipos para desarrollarlo y mirando más los objetivos a largo que a corto.

  • Gestionar de manera activa el proceso de cambios: Promover la comprensión dentro de la compañía del proceso de innovación en modelo de negocio, asegurar un proceso de cambio justo y transparente, desarrollar las habilidades que sean necesarias en el equipo humano y asegurar una actitud positiva hacia la innovación.


No se trata, como se puede ver, de una recomendación metodológica, para lo cual los autores ya hacen una propuesta al inicio de su libro. Se trata, más bien de una filosofía y unas actitudes y prácticas subyacentes, algunas más cercanas a lo metodológico y conectadas con tendencias como Lean startup como son el enfoque iterativo o el uso de prototipos, pero otras propuestas tienen más que ver con la cultura de la innovación, el liderazgo y, sobre todo, la gestión del cambio en el proceso de innovación e implementación y, en ese sentido, no son muy diferentes de las que podemos encontrar en otros tratados sobre innovación o transformación.

No son, por tanto, en sí mismas, ideas que nos sorprendan. Se trata eso sí, no sólo de 'que nos suenen', que ya nos suenan, sino de aplicarlas realmente.


viernes, 6 de agosto de 2021

Gestión del cambio y economía de la atención

Desde hace muchos años sabemos que cualquier gran cambio en una empresa, un gran cambio que puede incluir una transformación digital, debe ir acompañado de acciones orientadas a las personas, acciones pensadas para conseguir las aptitudes necesaria y alinear actitudes hacia el objetivo, acciones de formación y comunicación, acciones que consigan que las personas acepten e incluso deseen la transformación y que estén preparadas para ello. Y en eso es, justamente, en lo que consiste la así llamada gestión del cambio.

Como acabamos de mencionar, uno de los ingredientes nucleares de esa gestión del cambio es la comunicación, que se constituye como el arma principal para el alineamiento de actitudes.

Sin embargo, se puede producir un fenómeno curioso, una paradoja. Quizá porque se es consciente desde hace muchos años de esa necesidad de comunicación, quizá porque los medios tecnológicos actuales, incluyendo intranets, correos electrónicos o redes sociales, facilitan mucho las acciones de comunicación, quizá porque nos hemos acostumbrado a estar permanentemente conectados, lo cierto es que las personas vivimos sometidos actualmente a una fuerte presión de comunicación, a un flujo constante e intenso de comunicaciones de todo tipo tanto en el ámbito doméstico como en el profesional. Con ese panorama, puede ser difícil captar la atención de los empleados en las acciones de gestión del cambio e incluso, quién sabe, puede resultar hasta contraproducente el insistir en comunicar en según qué casos.

Así nos lo hacen notar Oliver GassmannKarolin Frankenberger y Michaela Choudury en su libro 'The business model navigator' que habla de innovación en modelos de negocio (un cambio profundo que sin duda necesita gestión del cambio) cuando nos dicen: 


But the cause of failure is usually not too little communications, but rather too much. Today's employees are flooded with information: emails, interoffice memos, weekly meetings and more, and it is often difficult for them to understand what is important and what isn't.


Y esto me hace pensar en la llamada economía de la atención, un concepto que hace referencia a la lucha que establecen las marcas por conseguir captar la atención de los usuarios, los clientes, el público en general. En efecto, la atención de las personas es un bien importante para las empresas para crear conciencia de marca y sobre ventas, pero un bien que se ha convertido en recurso escaso dada la altísima demanda por parte de las marcas, y no solo las marcas, de esa atención.

Así que, en cierto modo, la gestión del cambio, aunque se produzca dentro de una empresa y no hacia clientes externos, se ve de alguna manera inmersa en esa misma economía de la atención, en esa lucha por conseguir la atención de los propios empleados saturados ya de mensajes y comunicaciones.

No es tarea sencilla. La transformación y gestión del cambio a ella asociada no puede renunciar a comunicar a los empleados sus motivaciones, objetivos e impacto, pero debe conseguir hacerlo sin saturar y captando realmente la atención y no convirtiéndose en mero ruido de fondo. 

Quizá, lo que las empresas deban hacer es rebajar la comunicación de aspectos menos relevantes, más accesorios, y también evitar la sobre-actuación, la exageración o el triunfalismo en comunicaciones menores, para dejar espacio en la mente y atención de sus profesionales para aquellas otras que son realmente importantes y transformadoras.

No es fácil, desde luego, pero es importante conseguir gestionar adecuadamente esa atención. Va mucho en ello.


miércoles, 4 de agosto de 2021

Tres razones por las que Internet de las Cosas cambia la forma de hacer negocios

Una de las cuatro tecnologías clave para la transformación digital, en la visión que propone Tom Siebel en su libro 'Digital Transformation : survive and thrive in the era of mass extinction', es Internet de las Cosas.

Ya hemos dedicado un breve artículo a otras dos, Cloud computing y Big Data. Ahora revisamos la capacidad transformadora de Internet de las Cosas. En concreto, el autor identifica tres factores que le otorgan ese poder transformador. Son estos: 


  • Volumen de datos: Los sensores que se incorporan en IoT captura informaciones de su entorno que convierten en datos procesables en un enorme volumen. El autor aporta una referencia numérica en que haba que en 2020 se esperaba (no he podido comprobar si se ha conseguido) la generación de 600 zettabytes anuales.

  • El valor de esos datos: No solo se generan datos sino que estos, además, son muy valiosos dado que, en el fondo, se trata de medidas del propio negocio y, aparte de su aportación de naturaleza operativa, esos datos también permiten tomar mejores decisiones.

  • Efecto red: El valor se Internet de las Cosas se incrementa a medida que hay más dispositivos o sensores incorporados. En concreto, el autor menciona en este punto la ley de Metcalfe según la cual el valor de una red aumenta con el cuadrado del número de nodos (en este caso dispositivos o 'cosas' conectadas)


Diría que, aparte de estos factores, hay que tener en cuenta también la enorme variedad de soluciones que la incorporación de dispositivos inteligentes interconectados, unos dispositivos que permiten la interacción con el mundo físico, permiten construir y que afectan a casi cualquier sector.

Seguro que iremos cada vez más soluciones tanto en en las empresas como en el mundo doméstico.


lunes, 2 de agosto de 2021

Cinco retos clave para organizaciones que quieren afrontar Big Data

Nadie dijo que hacer analítica o Big Data fuese a ser fácil. En realidad, hay factores que han facilitado mucho las cosas, factores como la aparición de herramientas libres como Hadoop y todo su ecosistema o la disponibilidad en la nube de soluciones avanzadas, hechos ambos que democratizan y simplifican enormemente la entrada en el mundo del Big Data. 

Pero a pesar de esos avances, a pesar de la evidente viabilidad e interés de abordar este tipo de sistemas, su implantación práctica, especialmente en grandes organizaciones con mucha historia, con muchos sistemas y fuentes de datos, con muchos legados y con su tradición cultural no es sencillo.

En su libro 'Digital Transformation : survive and thrive in the era of mass extinction', el autor Tom Siebel, identifica, en concreto, cinco retos clave a los que hay que hacer frente.

Son estos:

  • Gestionar la multiplicidad de fuentes de datos: Las grandes empresas suelen disponer de una variedad de sistemas, amplia y heterogénea y que incluye desde sistemas empresariales como ERP o CRM hasta versiones menores de este tipo de software como, quizá, sistemas de nóminas o recursos humanos; o también sistemas muy específicos como los SCADA o MES de las empresas industriales o los sistemas de supervisión en telecomunicaciones; o herramientas más laxas en cuanto a datos como las soluciones colaborativas o de gestión documental; productos comerciales o desarrollos a medida; sistemas en mainframe o sistemas web. Y así un largo y variado etcétera. Conseguir con ese punto de partida una visión de datos unificada, integrada y explotable no es sencillo en absoluto. 

  • Incorporar y contextualizar datos de alta frecuencia: En algunos casos, como cuando estamos en entornos ciberfísicos o de Internet de las Cosas, en que los datos provienen de sensores, la entrada de datos es de tiempo real o alta frecuencia. Se trata de una complejidad adicional, una complejidad para la que algunas bases de datos NoSQL y soluciones de Big Data están especialmente bien preparadas, pero que añade, en cualquier caso, un punto de complejidad adicional. 

  • Trabajar con 'data lakes': Se refiere al autor al uso de sistemas de ficheros distribuidos (como el famoso HDFS de Hadoop) y al hecho de que su adopción aún es relativamente baja y también menciona la necesidad de normalización de datos o de eliminar duplicados, algo que ya nos acerca al siguiente reto. Un reto que, quizá, el autor no define bien y que lo que implica, en el fondo es la necesidad de emplear una tecnología avanzada, HDFS y MapReduce en este caso, que va más allá de lo que las soluciones de Business Intelligence más tradicionales podrían ofrecer.

  • Asegurar la consistencia de datos, la integridad referencia y el uso continuo aguas abajo: quizá, junto con el reto de la diversidad de fuentes, y en el fondo derivado de él, el mayor problema práctico. Al tomar datos de partida procedentes de diferentes fuentes, cada una con un modelo de datos diferente, no coordinado, resulta complejo y, sobre todo, muy laborioso, conseguir una imagen unificada de los datos, una imagen en que el mismo dato se represente de la misma forma (mismo tipo de dato, misma longitud, mismos valores posibles, misma semántica,...) algo que suele precisar farragosas traducciones desde modelos de partida al modelo unificado. Y algo que se complica al hablar de la referencialidad, de las relaciones entre entidades muchas veces no evidentes o sin información suficiente o suficientemente consistente.

  • Habilitar nuevas herramientas y habilidades para nuevas necesidades: Esto incluye el uso de nuevas herramientas (visualizadores de datos, machine learning, etc) y por tanto, la necesidad de disponer de esas herramientas y de formar a los equipos en su uso o bien incorporar a personas con esas capacidades.

En mi experiencia personal, diría que la diversidad de fuentes y la dificultad para asegurar la consistencia son, con diferencia, las problemáticas más importantes y generalizadas. Dos problemáticas entrelazadas y, además, carentes de 'glamour' pero a cambio sí necesitadas de mucho trabajo, mucho esfuerzo, que se abordan mediante lucha de guerrillas y de trincheras, sistema a sistema, dato a dato.

La verdad es que siempre he considerado más fácil implantar una solución informacional o analítica que una solución operacional o de automatización de procesos. 

Pero, a pesar de ello, a pesar del avance tecnológico, a pesar de la disponibilidad real de avanzadas tecnologías y herramientas, no hay que confiarse: implantar una solución informacional, analítica y ya no digamos de Big Data en una empresa real, con tamaño e historia es todo un reto. 

Eso sí, la recompensa vale la pena.