lunes, 9 de septiembre de 2019

Cinco ventajas del marketing digital


Me encuentro leyendo el libro 'Marketing digital 360º. Implementación práctica' de Joseba Ruiz Díez. Mi foco en esta lectura, y también la orientación del libro, es en los aspectos técnicos del marketing digital, más que de su naturaleza comercial o estratégica.

De todas formas, y en una de las escasas incursiones en que el autor abandona la visión técnica para situarse en un territorio por lo menos fronterizo, nos cuenta lo que él entiende como ventajas del marketing digital frente al marketing tradicional.

Esas ventajas que identifica son las siguientes:

  • Menores costes:  Más que incidir en un menor coste unitario, que probablemente también sea relevante, el autor centra esos menores costes sobre todo en la capacidad de controlar los gastos y de seleccionar entre multitud de herramientas.

  • Medición pormenorizada: Se incide en la posibilidad que ofrecen los medios online de registrar las interacciones y datos más importantes y de explotarlos posteriormente. De hecho en lo que sigue del libro se dedica bastante espacio a los aspectos de medición y analíticos.

  • Microsegmentación: es decir, la capacidad de subdividir a los usuarios / clientes de forma muy fina según variedad de criterios tanto para su análisis como para guiar la interacción incluyendo el tratamiento personalizado. Esta segmentación se basa precisamente en la disponibilidad de amplia información en formato explotable. Es lo que se llama el 'microtargeting' y permite identificar grupos de posibles cliente muy cercanos a nuestros objetivos.

  • Comunicación bidireccional: utilizando mecanismos como son los chatbots y, en cualquier caso, promoviendo la interacción y conversación con los clientes.

  • Inmediatez y entorno de la información: parece referirse, sin indicar explícitamente este término, al uso de la geolocalización para proporcionar información relativa al entorno físico cercano, como, por ejemplo, el aparcamiento más próxima. Aparte de la localización también se menciona el uso, por ejemplo, de la variable tiempo, cambiando las acciones comerciales según la hora del día. En cualquier caso, se trata de mantener unas interacciones muy cercanas y adaptadas a la realidad inmediata del cliente y su entorno para lo cual, de nuevo, hacemos un uso inteligente de la información disponible sobre el cliente y su entorno.

Vemos que varias de esas ventajas se relacionan con la información y la explotación de la misma, algo que, quizá sea parcialmente sesgado, pero que es sin duda muy relevante.

Probablemente los especialistas en marketing podrían aportar oras ventajas, así como trabajar las posibilidades de las estrategias 'blended' pero, en cualquier caso, las citadas son claras ventajas a tener en cuenta.

viernes, 6 de septiembre de 2019

Estrategia e innovación con Melissa A. Schilling

'Strategic Management of Technological Innovation' se puede considerar casi un clásico de la literatura sobre innovación. De hecho, la versión en que lo he leído es ya su sexta edición.

El planteamiento de la innovación que hace la autora, y como se deduce del título del libro, es un enfoque que engarza con la formulación y ejecución de la estrategias de las compañías, un planteamiento que no puedo menos que compartir y mucho más teniendo en cuenta la irrupción de lo digital en los últimos años y la necesidad de transformación digital que, en mi opinión, no deja de ser una forma de innovación y, además, innovación tecnológica y estratégica. En ese sentido, me sorprende agradablemente ver cómo coincide en algunos planteamientos con lo que propongo en mi propio libro "La Carrera Digital" acerca, no sólo del carácter estratégico, y de la necesidad de incardinar la innovación (y la transformación digital) en la estrategia de la empresa, sino también en los planteamientos acerca de cómo seleccionar los proyectos.

El libro, que es de una extensión media, se compone de trece capítulos. Comienza por un un capítulo de introducción 'Chatper 1: Introduction' en que explica la importancia de la innovación tecnológica e introduce el contenido del libro. A partir de ahí, se estructura en tres partes

  • 'PART I: INDUSTRY DYNAMICS OF TECHNOLOGICAL INNOVATION': Aborda diversos aspectos relacionados con la tecnología, las dinámicas tecnológicas y las posibles estrategias, como paso previo a la definición de una estrategia propia. Esta parte la conforman los siguientes cuatro capítulos: 

    • 'Chapter 2: Sources of innovation': habla de la creatividad, individual y organizativa, de la actividad de investigación y desarrollo y de las redes de innovación

    • 'Chapter 3: Types and patterns of innovation': Comienza diferenciando algunos tipos de innovación (producto frente a proceso, incremental frente a radical, arquitectura frente a componentes, etc) y luego dedica amplio espacio a explicar el uso de las cursas en S de Foster y su aplicación para entender las dinámicas de mejora y difusión de las tecnologías

    • 'Chapter 4: Standars battles, modularity and platform competition': comenta varios interesantes elementos tecnológicos que tienen importancia para una estrategia de innovación tecnológica, como son el diseño dominante y los estándares, componentes y modularidad o las plataformas.

    • 'Chapter 5: Timing of entry': Analiza la importancia del momento de entrada en el mercado, comenzando por ver las ventajas y desventajas del 'first mover' y los factores que influyen en la selección del momento de entrada.


  • 'PART II: FORMULATING TECHNOLOGICAL INNOVATION STRATEGY': Una vez presentados los conceptos y elementos competitivos fundamentales en lo que a innovación tecnológica se refiere, esta segunda parte se centra en la formulación de la estrategia de innovación tecnológica y se estructura en cuatro capítulos: 

    • 'Chapter 6: Defining the organizations strategic direction': Repasa brevemente algunas herramientas de análisis estratégico y luego nos habla de las competencias nucleares y la intención estratégica.

    • 'Chapter 7: Choosing innovation projects': Plantea unos mecanismos bastante clásicos de selección de proyectos, comenzando por hablar del presupuesto luego pasa a ver herramientas de análisis de inversión como el VAN o el TIR para, a continuación, repasar algunos métodos cualitativos.

    • 'Chapter 8: Collaboration Strategies': Habla de estrategias de colaboración entre organizaciones. Primero analiza las ventajas y desventajas de actuar en solitario o colaborando y luego presenta tipologías de colaboración y algunos elementos de relación entre partners.

    • 'Chapter 9: Protecting innovation': Habla de patentes y propiedad intelectual y analiza las ventajas y desventajas de proteger la innovación o, por el contrario, difundirla abiertamente.


  • 'PART III: IMPLEMENTING TECHNOLOGICAL INNOVATION STRATEGY': Para finalizar, aborda diversos elementos de la implementación de una estrategia de innovación tecnológica. De nuevo, los contenidos los estructura en cuatro capítulos: 

    • 'Chapter 10: Organizing for innovation': Aborda elementos organizativos como tamaño, centralización, acoplamiento entre unidades y las diversas opciones y ventajas o desventajas.

    • 'Chapter 11: Managing the new development process': Habla del proceso de desarrollo de nuevos productos y servicios abordando aspectos como la gestión del encaje con las necesidades de los clientes o su tiempo de ciclo. También explica algunas alternativas en cuanto a procesos de desarrollo, la figura del 'champion', la involucración de los clientes y algunas herramientas.

    • 'Chapter 12: Managing New Product Development Teams': habla de aspectos del equipo como el tamaño, las estructuras organizativas o los equipos virtuales.

    • 'Chapter 13: Crafting a Deployment Strategy': Y finaliza analizando algunos aspectos ligados al despliegue de la estrategia como son el momento de lanzamiento, la decisión acerca de la compatibilidad, el precio, la distribución y otros aspectos del marketing asociado.

'Strategic Management of Technological Innovation' es un buen libro, de lectura asequible y amena, bien explicado y estructurado aunque quizá no siempre profundice mucho ni mencione apenas grandes tendencias actuales como Lean Startup, Design Thinking, el intraemprendimiento o todo el mundo de las incubadoras y aceleradoras quizá por estar más orientado, en apariencia, a la innovación en grandes empresas que en startups. En cualquier caso, muy buena lectura para todo el que esté interesado en la innovación y, incluso, en la estrategia.

Melissa A. Schilling

(Fuente: Traducción y ligera elaboración propia de la biografía en su Página oficial.)

Melissa A. Schilling
Melissa A. Schilling es profesora de gestión y organización en la John Herzog Family en New York University’s Stern School of Business y una de las importantes expertas en innovación a nivel mundial. Su libro de texto 'Strategic Management of Technological Innovation' (con sucesivas ediciones) es el texto número uno mundial en materia de estrategia de la innovación y está disponible en siete idiomas. La profesora Schilling es también co-autora de 'Strategic Management: An Integrated Approach', también con numerosas ediciones y una de los libros más relevantes a nivel mundial en lo relativo a gestión estratégica.

Realizó su doctorado en la Universidad de Washington y su investigación analizaba las guerras de estándares en los sectores de alta tecnología. Buscó respuestas a preguntas tales como: 'Cómo y por qué se eligen las tecnologías dominantes en industrias de tipo 'todo para el ganador?' o '¿Cómo hacen los directivos la siempre difícil elección entre proteger sus tecnologías con patentes u optar por una difusión rápida para conseguir apoyos para su tecnología?'. Este trabajo la posicionó al frente de la investigación en estrategia de la innovación, con experiencia en sectores de alta tecnología como smartphones, software o videojuegos. La profesora Schilling, posteriormente, ha expandido su radio de acción para incluir otros sectores de alta tecnología como la biotecnología, las energías renovables o vehículos eléctricos. Sus artículos sobre innovación, creatividad, alianzas y modularidad han aparecido en revistas punteras como "Academy of Management Journal", "Academy of Management Review", "Management Science", "Organization Science", "Strategic Management Journal", "Journal of Economics and Management Strategy", "Research Policy" y "Harvard Business Review".

Puedes saber más de la autora visitando su página oficial o siguiéndola en twitter donde se identifica como @mschilli1.

Ficha técnica:

AÑO: 2019 (Sexta Edición)
ISBN: 978-1260565799
PAGINAS: 363

Artículos de este blog relacionados

miércoles, 4 de septiembre de 2019

Siete predicciones para la evolución de arquitecturas cloud


En mi libro, "La Carrera Digital", cuando hablo en el tercer capítulo de las tendencias digitales, la primera tecnología que abordo es cloud computing, una tecnología que dudé si considerarla ya madura (las tecnologías maduras las abordo en el capítulo 2, 'Realidades digitales') o aún una tendencia. Al final escogí esto segundo, y creo haber acertado.

Por un lado porque, aunque a nivel técnico e incluso de modelo de negocio, el cloud computing ya lleva mucho camino recorrido, todavía en cuanto a adopción por las empresas creo queda mucho por hacer y en parte también porque todavía cloud computing sigue evolucionando a nivel técnico (tomemos por ejemplo la introducción del concepto 'serverless') e incluso operativo, con una interesantísima y creciente imbricación con las prácticas DevOps.

Y que he acertado al considerar cloud computing aún una tendencia, creo que me lo confirma el final del libro 'Cloud Native Architectures' de Tom Laszewski, Kamal Arora, Erik Farr y Piyum Zonooz al que ya me he referido en varios posts recientes.

En el capítulo final, los autores se atreven a hacer unas predicciones, siete en concreto, sobre la evolución de las arquitecturas cloud nativas en los próximos tres años y, dado que el libro se ha publicado en Agosto de 2018 (hace un año), podemos considerar esas predicciones aún plenamente vigentes.

Estas son las siete apuestas de los autores sobre la evolución del cloud:

  • Plataformas de código abierto: Continuará la aparición y adopción de plataformas y 'frameworks' de código abierto (open source) que además harán las arquitecturas cloud nativvas más amigables para los desarrolladores. Como ilustración de esta tendencia, nos proponen el ejemplo de la sustitución de bases de datos Oracle por PostgreSQL o MySQL, y el lanzamiento de la comunidad Cloud Native Computing Foundation (CNCF) en 2017

  • Mayor nivel de abstracción en la infraestructura de servicios: elementos como los componentes o el concepto serverless cada vez alejan más al desarrollador de la infraestructura subyacente. Los autores piensan que se continuará en esa línea, con una cada vez mayor orientación al software y las aplicaciones y menos a la infraestructura y prevén también, un poco como consecuencia de lo anterior, una difuminación cada vez mayor de las fronteras entre los conceptos de IaaS, PaaS y SaaS,

  • Sistemas cada vez más inteligentes y automáticos: y ello por la introducción de cada vez más elementos de Inteligencia Artificial/Machine Learning que permitirán de forma predictiva y automática ajustar capacidades o resolver problemas, con lo que los autores prevén una evolución desde DevOps a NoOps (operaciones automáticas)

  • Desarrollo en la nube: Hoy día, incluso en empresas con mucho de su software en la nube, todavía el desarrollo propiamente dicho tiende a hacerse en entornos locales, on-premises. La previsión es que el desarrollo se vaya realizando de forma creciente ya sobre la propia nube.

  • Prevalencia de modelos de relación basados en chatbots y realidad virtual/aumentada: Quizá no sea exactamente una evolución del cloud, pero sí muy influenciada por cloud. Lo que los autores entienden es que los modelos de interacción con clientes y usuarios cada vez incluirán más elementos de realidad virtual o aumentada así como chatbots y que la disponibilidad de servicios en la nube que proporcionan estas funcionalidades, apoyarán esa evolución.

  • Expansión hacia 'las cosas': En una línea parecida a lo anterior, la previsión es que las arquitecturas cloud nativas acompañarán al Internet de las Cosas

  • Los datos continuarán siendo muy importantes: Cada vez habrá más datos y éstos se podrán mover más fácilmente a la nube, potenciado por la aparición de herramientas capaces de mover grandes cantidades de información hacia/desde la nube. Esto contribuirá a la recolección de grandes cantidades de datos y a su análisis.

Siete tendencias muy interesantes y creo que bastante creíbles que demuestran que cloud computing aún tiene mucho que evolucionar y mucho que aportar.

lunes, 2 de septiembre de 2019

Cuatro factores a considerar al elegir un proveedor cloud


Poco a poco el modelo cloud computing se va imponiendo. Cada vez es más común en cualquier tipo de empresa, e incluso también en el ámbito privado. el disponer de al menos algunos servicios proporcionados desde la nube.

¿Cómo seleccionar al proveedor de servicios? Se pueden aplicar multitud de criterios y el sentido común e incluso la experiencia en la selección de otro tipo de proveedores tecnológicos nos puede ayudar.

En su libro 'Cloud Native Architectures', Tom Laszewski, Kamal Arora, Erik Farr y Piyum Zonooz, nos proponen las siguientes áreas a considerar:

  • Escalado: Se trata de la elasticidad y de la capacidad de proporcionar más recursos computacionales bajo demanda, incluyendo también también la capacidad de proporcionar esos recursos en cualquier lugar y momento.

  • Seguridad / cumplimiento normativo: Una prioridad absoluta para un proveedor cloud es la seguridad, incluyendo el cumplimiento de todas las certificaciones existentes posibles.

  • Riqueza de capacidades: Dada la innovación continua que afecta al mundo digital y por lo tanto a la nube, un factor diferencial es si el proveedor es capaz de proporcionar algunas delas ultimas funcionalidades y capacidades en materias como serverless, blockchain, machine learning, etc.

  • Precio: por supuesto, el precio sigue siendo un componentes fundamental aunque no único. Y hay que tener en cuenta los diferentes esquemas de precios que el modelo como servicio puede ofrecer, y nuestras propias necesidades computacionales, para hacer unos cálculos realistas.

A esto añaden los autores otro factor que es hasta qué punto estamos cómodos (cómodos creo que puede incluir el disponer de los conocimientos necesarios) con la tecnología ofrecida por unos u otros proveedores.

Diría que no hay mucho nuevo bajo el sol, que se trata de criterios procedentes del sentido común pero que, en cualquier caso, hay que tener claros.

viernes, 30 de agosto de 2019

A fondo sobre Process Mining con Wil van der Aalst

Process Mining es una disciplina que analiza procesos de negocio usando técnicas procedentes de la ciencia de los datos e incluso del machine learning. Este libro es, en el momento de leerlo y de escribir estas líneas, probablemente la mejor y más completa obra que cubre esta disciplina. Un libro de carácter fundamentalmente académico, con sólido basamento teórico y una argumentación limpia y muy bien estructurada.

El libro se estructura en dieciséis capítulos agrupados en seis partes:
  • 'PARTE I: INTRODUCTION': Una parte, evidentemente, introductoria para entender fundamentalmente lo que es el Process Mining, el porqué de sus existencia y situarla en el mapa de disciplinas relacionadas.

    • 'Capítulo 1: Data Science In Action': Nos habla primero de un 'Internet de los eventos' destacando la oleada de eventos que se producen en el mundo digital. Luego explica lo que es Data Science y tiende el puente entre esta disciplina y la de gestión de procesos.

    • 'Capítulo 2: Process Mining: The Missing Link': Sitúa la disciplina del process mining. Para ello primero explica las limitaciones del modelado, explica lo que es el process mining y su funcionamiento básico y finalmente sitúa esta disciplina en relación con otras como el BPM, Data Mining, Six Sigma, Reingenieria de Procesos, Busines Intelligence, etc

  • 'PARTE II: PRELIMINARIES': Ya que, de alguna forma, Process Mining es una especie de fusión o influencia de técnicas (procesos y data science), en esta parte proporciona ideas sobre ambos

    • 'Capítulo 3: Process Modelling And Analysis': Habla del modelado de procesos y explica algunas de las técnicas y modelos más conocidos en este campo como las Redes de Petri, YAWL, BPMN, Workflow Nets, etc

    • 'Capítulo 4: Data Mining': Introduce ahora el campo del Data Mining, presentando ideas como el aprendizaje supervisado y no supervisado, árboles de decisión, k-means clustering, etc. Y cierra explicando conceptos sobre la calidad de los modelos.

  • 'PARTE III: FROM EVENT LOGS TO PROCESS MODELS': quizá la parte central, y también la más compleja, explica desde la obtención de los datos hasta el descubrimiento de los procesos subyacentes mediante diferentes técnicas

    • 'Capítul 5: Getting The Data': Se centra en el primer paso: la obtención de datos. Nos habla de las fuentes posibles de datos, de los logs de eventos incluyendo el estándar XES, problemáticas de calidad de los datos, etc

    • 'Capítulo 6: Process Discovery: An Introduction': Entrando en la primera de las grandes áreas de aplicación del Process Mining, explica cómo se puede hacer el descubrimiento de procesos para lo cual, prinmero define el problema y luego explica el algoritmo alpha reconociendo también sus limitaciones y presentando algunos desafíos

    • 'Capítulo 7: Advanced Process Discovery Techniques': tras haber visto en el capítulo anterior que el algoritmo alpha no puede tratar correctamente las cuatro dimensiones de calidad (ajuste, simplicidad, precision y generalización) este capítulo presenta otras técnicas sin llegar a un detalle completo de las mismas. Así, nos habla de heuristic mining, genetic process mining, region-based mining o inductive mining.

  • 'PARTE IV: BEYOND PROCESS DISCOVERY': Otra parte muy importannte que aborda las otras aplicaciones del process mining aparte del descubrimiento de procesos

    • 'Capítulo 8: Conformance checking': Plantea el uso de process mining para comprobar el ajuste de la realidad al proceso definido. Empieza por presentar cuál es la problemática y los objetivos. Luego explica el 'token replay' y alineamientos. Finalmente presenta varias formas de usar el 'conformance checking'.

    • 'Capítulo 9: Mining Additional Perspectives': Presenta otras posibilidades del process mining incluyendo el organizational mining, los análisis de tiempo y probabilidades o decision mining.

    • 'Capítulo 10: Operational Support': Habla del uso del process mining, no para un análisis a posteriori sino para acciones útiles durante la propia ejecución de los casos en temas como detección, predicción y recomendación.

  • 'PARTE V: PUTTING PROCESS MINING TO WORK': Entra ya en aspectos mucho menos teóricos y más de la realidad del día a día

    • 'Capítulo 11: Process Mining Software': Repasa la tipología de herramientas software de process mining y describe someramente algunas de ellas como ProM y algunas otras tanto comerciales como no comerciales.

    • 'Capítulo 12: Process Mining In The Large': Habla de Process Mining en el entorno de los grandes volúmenes de datos y el Big Data.

    • 'Capítulo 13: Analyzing "Lasagna Processes"': Presenta el análisis en el caso de procesos bien estructurados.

    • 'Capítulo 14: Analyzing "Spaghetti Processes"': Presenta el análisis en el caso de procesos poco estructurados.

  • 'PARTE VI: REFLECTION': Una parte breve con unas consideraciones finales.

    • 'Capítulo 15: Cartography And Navigation': Usando la metáfora de los navegadores cartográficos, habla de mapas de procesos de negocio y algunas posibilidades para su navegación.

    • 'Capítulo 16: Epilogue': Un breve cierre en que vuelve a presentar a Process Mining como un puente entre BPM y Data Science, presenta algunos retos y hace una llamada a la acción.
'Process Mining. Data Science in action' es un libro de una altísima calidad, que explica muy bien los conceptos pero que, eso sí, es muy especializado y bastante complejo en algunos momentos, con abundancia de álgebra y definiciones formales que aportan mucho rigor y exactitud, pero que hacen más difícil la lectura y la comprensión.

Un libro para especialistas y, probablemente, más para el estudio detenido que para la lectura de seguido.

Wil van der Aalst

(Fuente: Wikipedia)

Wil van der Aalst
De nombre completo, Willibrordus Martinus Pancratius van der Aalst y nacido el 29 de Enero de 1966, es un científico de computadoras holandés y profesor a tiempo completo en RWTH Aachen University, donde lidera el equipo Process and Data Science (PADS). Sus intereses en investigación y docencia incluyen sistemas de información, gestión de workflow, redes de Petri, process mining, lenguajes de especificación y simulación. También es reconocido por su trabajo en patrones de workflow.

Nacido en Eersel, Holanda, van der Aalst obtuvo un grado en ciencias de la computación en 1988 en la Technische Universiteit Eindhoven (TU/e) y un doctorado en matemáticas en 1992 con la tesis "Timed colored Petri nets and their application to logistics" bajo la supervisión de Jaap Wessels y Kees van Hee.

En 1992 comenzó a trabajar en la Eindhoven University of Technology como profesor ayudante en el departamento de Matemáticas y Ciencias de la Computación, donde encabezó el grupo de investigación Specification and Modeling of Information systems (SMIS). Desde 2000 a 2003 fue profesor a tiempo parcial en el departamento de Ciencias de la Computación. Y desde 2000 a 2006 fue responsable del departamento de Sistemas de Información en el departamento de Gestión de la Tecnología de la Universidad de Eindhoven. Desde 2006 es profesor en el departamento de Matemáticas y Ciencias de la Computación de la Eindhoven University of Technology. También tiene una asignación a tiempo parcial en el grupo BPM de la Queensland University of Technology (QUT).

Ha sido profesor visitante en el Karlsruhe Institute of Technology (AIFB), en la University of Georgia (LSDIS), el Johann Wolfgang Goethe University Frankfurt am Main (WI-II), en la University of Colorado (CTRG), en Queensland University of Technology (CITI), en Aarhus University (DAIMI), y en la Fondazione Bruno Kessler (FBK).

Es editor asociado de varias revistas, incluyendo "IEEE Transactions on Services Computing", "IEEE Transactions on Industrial Informatics", "International Journal of Business Process Integration and Management", "International Journal on Enterprise Modelling and Information Systems Architectures", "Computers in Industry" y "Transactions on Petri Nets and Other Models of Concurrency".

Es editor de las series "Lecture Notes in Business Information Processing" (LNBIP) de Springer, miembro del comité editorial de "Distributed and Parallel Databases" y "Business and Information Systems Engineering" y miembro de varios comités directivos incluyendo "International Conference Series on Business Process Management" (presidente), "International Conference Series on Application and Theory of Petri nets" y "International Workshop Series on Web Services and Formal Methods". También es miembro de la Royal Holland Society of Sciences and Humanities (Koninklijke Hollandsche Maatschappij der Wetenschappen) y de la Academy of Europe (Academia Europaea). Van der Aslst fue elegido miembro de la Royal Netherlands Academy of Arts and Sciences en 2014.

Sus intereses de investigación se centran en los campos de sistemas de información, gestión de procesos de negocio, simulación, redes de Petri, modelos de procesos, sistemas de gestión de workflow, técnicas de verificación, process mining, systemas ERP, trabajo cooperativo soportado por ordenador, servicios web, rediseño de procesos de negocio, asignación de recursos y procesos de negocio interorganizacionales.

Es un firme partidario del software de código abierto. Inició y dirigió el desarrollo de:
  • El framework ProM, una herramienta de process mining
  • YAWL, un sistema de workflow
  • y otros varios software incluyendo Declare, Woflan, XRL, etc
También lanzó la iniciativa de patrones de workflow. Este trabajo influyó en estándares de la industria como el Business Process Execution Language (BPEL), el Business Process Modeling Notation (BPMN), etc. Las ideas de Van der Aalst han influenciado también varias herramientas comerciales ampliamente utilizadas como Flower, Protos, Futura Reflect, Staffware, WebSphere y ARIS.

Otras contribuciones científicas de Van der Aalst se encuentran en los campos del descubrimiento de procesos de negocio, cadenas de proceso dirigidas por eventos, la Workflow Management Coalition y XPDL.

Van der Aalst es un investigador altamente citado en ISI. Según Google Scholar es el octavo en el ranking de investigadores en computación en el mundo y el primero entre los no norteamericanos.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @wvdaalst.

Ficha técnica:

EDITORIAL: Springer
AÑO: 2016
ISBN: 978-3662498507
PAGINAS: 467

Artículos de este blog relacionados

miércoles, 28 de agosto de 2019

Patrones de migración a la nube: las seis Rs de AWS


En el post anterior comentábamos tres caminos (y medio) para la migración a la nube basándonos en las propuestas de Tom Laszewski, Kamal Arora, Erik Farr y Piyum Zonooz, en su libro 'Cloud Native Architectures',

Se incluía el realojamiento (lift-and-shift), del replataformado (lift-tinker-and-shift), de la reingeniería y del desarrollo nativo. Se trata de una visión algo resumida de las estrategias de migración posibles.

Los mismos autores, de hecho, nos hablan un poco más adelante de las llamadas 6 Rs (seis erres), de seis patrones o estrategias de migración a la nube que extienden un poco más la idea. Estos seis patrones parten de una propuesta inicial realizada por Gartner en 2011 en donde hablaba de 5 formas de migrar a la nube, a saber: rehost, refactor, rearchitect, rebuild, replace.

Apoyándose de forma explicita en esa ideas de Gartner (y hasta en las Rs iniciales), el equipo de AWS identifica seis estrategias para migrar aplicaciones a la nube:

Las 6 Rs de AWS para la migración a la nube

  • (R)ehosting:
    Se trata de la estrategia de lift-and-shift ya comentada, es decir, se trasladan las aplicaciones a la nube sin rediseño de ningún tipo casi (e incluso a veces literalmente) como una copia bit a bit. Hacerlo así a corto plazo no proporciona grandes beneficios pero permite una migración relativamente rápida (existen automatizaciones al respecto) y se espera que un posible rediseño posterior sea más sencillo una vez las aplicaciones se encuentran ya en la nube.

  • (R)eplatforming: Se corresponde con el escenario lift-tinker-and-shift, es decir, el medio del artículo anterior, donde no se cambia de forma fundamental la arquitectura de la aplicación pero se introduce alguna pequeña mejora.

  • (R)epurchasing: Se trata de una estrategia completamente diferente. En lugar de intentar migrar la aplicación existente, se adopta una nueva aplicación que ya está en la nube. Por ejemplo, podríamos abandonar nuestro CRM legado y migrar hacia Salesforce. Aunque no existe una migración de aplicación propiamente dicha, sí que resultan necesarias acciones como migrar datos, rediseñar interfaces, etc.

  • (R)efactoring / (R)e-architecting: Se trata de hacer un rediseño profundo de la aplicación para que ya sea realmente cloud nativa. Creo que abarca tanto lo que en el anterior artículo denominábamos reingeniería (cambios profundos en la aplicación) como el desarrollo cloud nativo que es la construcción desde cero.

  • (R)etire: En realidad no se trata de una migración sino de aprovechar el esfuerzo de análisis de la realidad de sistemas disponibles para prescindir de alguno que realmente no aporta valor o cuya funcionalidad puede ser absorbida por otro. Es una excelente oportunidad para simplificar el mapa de sistemas, lo que, aparte de ahorros de costes, aporta agilidad y mayor facilidad de gestión.

  • (R)etain: En realidad es una no migración, es decir, decidimos conscientemente no migrar una aplicación a la nube.

Estas 6 Rs, creo que ofrecen un panorama más completo de las opciones para la migración a la nube y diría que también más directivo en el sentido de contemplar decisiones no específicamente técnicas en la migración, sino también otras opciones como la de no migrar, apagar sistemas o adoptar un nuevo producto.

El mapa de opciones queda así bastante más claro...lo cual no significa que adoptar esas decisiones sea sencillo, y ejecutarlas tampoco.

lunes, 26 de agosto de 2019

Tres caminos (y medio) para migrar a la nube


El cloud computing 'ha llegado a nuestras vidas' o, más bien, a las de las empresas cuando éstas ya están dotadas de una importante infraestructura de TI (aplicaciones, servidores, redes, etc). Por lo tanto, el salto a la nube no es algo inmediato sino que, en general, implica un complejo y probablemente doloroso proceso de migración.

Cómo hacer ese viaje es una decisión de cada empresa pero se pueden sugerir algunos patrones. En su libro  'Cloud Native Architectures', los autores Tom Laszewski, Kamal Arora, Erik Farr y Piyum Zonooz, nos hablan en concreto de tres grandes caminos:

  • Realojamiento (lift-and-shift): Se trata de mover, simplemente, de trasladar los sistemas tal cual son, sin cambios, desde lo centros de proceso de datos de la empresa a la nube. Viene a ser casi como una copia bit a bit de aplicaciones, almacenamiento, bases de datos, etc Puede ser un primer paso pero sus beneficios son dudosos e, incluso, puede resultar en un coste neto en lugar de una eficiencia.

  • Reingeniería: Este camino se suele aplicar no a la totalidad de sistemas sino a un conjunto seleccionado y consiste en hacer un rediseño y recodificación parcial para una mejor adaptación a la nube y para aprovechar algunas de sus ventajas.

  • Desarrollo nativo: En este caso, más que un verdadera migración lo que se hace es un rediseño y recodificación completa de las aplicaciones para hacerlas completamente 'cloud native'. En cierto sentido es la mejor opción pero, evidentemente es muy radical y costosa en tiempo e inversión por lo que no parece fácil pensar que sea un camino que se aplique comúnmente a gran escala, al menos sin hacerlo convivir con otras opciones.

Estos serían los tres caminos básicos pero en el título hablo de tres y medio. ¿Por qué? Porque los autores nos hablan de una variante del realojamiento que casi considero un camino por si mismo. Se trata del lift-tinker-shift migration en que, aunque la mayor parte de la infraestructura TI se mueve tal cual es a la nube, sí se hace, a nivel de componentes muy concretos, un pequeño rediseño y aprovechamiento de las capacidades cloud. Así, en el libro se nos propone el ejemplo de, además de llevar tal cual todas las bases de datos a la nube, introducir el alamcenamiento de backups en a un almacenamiento en la nube. 

Veo estos tres caminos (y medio) como una especie de arquetipos, como unos esquemas de partida en que apoyarnos para estructurar nuestro propio camino de migración hacia la nube. un camino que presumo, al menos para grandes empresas, complejo, largo, personalizado y plagado de decisiones delicadas.