Estoy intentando profundizar en el concepto y, sobre todo, técnicas y estado del arte del Process Mining que se puede entender, dicho de forma simplificada, como la aplicación de Data Science a los procesos de negocio. Y con esa idea he iniciado la lectura de 'Process Mining. Data Science in action' de Wil van der Aalst.
Y, nada más empezar, y aunque sea en términos muy sencillos, me he encontrado, todavía referido a Data Science como tal, no aún específicamente a Process Mining, con un par de detalles muy interesantes, por clarificadores.
Lo primero, una definición sencillísima de lo que es Data Science:
Data Science is an interdisciplinary field aiming to turn data into real value
Una definición que me gusta porque, por un lado es absolutamente simple y fácil de comprender (aunque quizá no desvele del todo de qué estamos hablando) y lo segundo por el énfasis que pone en la aplicación práctica a problemas reales para 'sacarle jugo' a los datos.
Y el segundo detalle que me he topado nada más empezar son las cuatro categorías de preguntas a que se deben responder con Data Science y que son estas:
Informe:'¿Qué ha sucedido?'
Diagnóstico:'¿Por qué ha sucedido?'
Predicción:'¿Qué sucederá?'
Recomendación:'¿Qué es lo mejor que puede suceder?'
De nuevo, se trata de una visión muy simplificada pero, quizá por ello, también muy ilustrativa, fácil de asimilar y recordar y que ayuda a estructurar el conocimiento.
Empezamos viendo el marco de tecnologías que nos proponían los autores, con tres partes de las cuales, una muy importante eran los algoritmos que utiliza el vehículo, algoritmos que se clasificaban en 'sensing', percepción y decisión.
Al revisar los elementos sensoriales utilizados por ejemplo en localización, y cuando se repasan un poco los algoritmos de percepción y decisión, muchos de ellos procedentes del campo del machine learning, uno se admira, no sólo de la 'habilidad' (inteligencia, si se nos permite decirlo) de los algoritmos para 'comprender' y decidir, sino también de la enorme cantidad de información que son capaces de manejar y entender en tiempo rabiosamente real.
Pero hasta el momento, esa admiración era un poco intuitiva: se entiende que es mucha la información que se maneja...pero no sabemos de qué estamos hablando realmente.
Bueno, pues bastante al final del libro los autores nos obsequian con ese dato
On a production autonomous vehicle, each second, the sensor can generate as much as 2Gb of raw sensor data, and then the enormous amount of data is fed into the computing platform for perception and action plan computation.
Ahí lo tenemos: 2 Gigabytes por segundo de información a procesar, con la cual calcular la localización, entender perfectamente el contexto (incluyendo las 'intenciones' de otros objetos en movimiento) y decidir trayectorias, velocidades, etc. Y todo ello, por supuesto, en tiempo real y sin posibilidad de fallos, dado lo crítico de las decisiones que se toman de cara a la seguridad de pasajeros y resto de personas y cosas en el contorno del vehículo.
Ello lleva al uso de hardware especializado del tipo de GPU (Graphics Processing Units) o FPGA (Field Programmable Gate Array) y arquitecturas paralelas que los autores describen en el capítulo dedicado a lo que ellos denominan sistemas cliente y que en realidad es la suma del hardware y el sistema operativo. Y además, impone, entiendo, una cierta economía de los algoritmos para ser capaces de tratar de la forma más eficiente esa ingente cantidad de datos.
Al final, en este campo del vehículo autónomo, tres revisar las tecnologías y algoritmos implicados, y rematado por este dato del volumen de información manejado en tiempo real, uno no puede dejar de sentir cierta admiración.
Tres son las filosofías básicas usadas en Machine Learning para el entrenamiento de los algoritmos: el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje por refuerzo.
En el aprendizaje supervisado durante el entrenamiento ofrecemos al algoritmo ejemplos de entradas con la salida esperada y con base en esa información se ajustan los parámetros del algoritmo.
En el caso del aprendizaje no supervisado no ofrecemos ese concepto de respuesta correcta sino que el propio algoritmo, durante el entrenamiento, se va ajustando para ofrecernos descubrimientos del tipo de agrupaciones en clústeres homogéneos.
Finalmente, el aprendizaje por refuerzo actúa de forma que el algoritmo recibe alguna forma de premio o castigo ante lo que va haciendo y, conforme a eso, se va ajustando en búsqueda del premio mayor posible.
Cuando hablábamos del marco de tecnologías para el vehículo autónomo siguiendo la propuesta hecha por Saoshan Liu, Liyun Li, Shuan Wu y Jean-Luc Gaudiot en su libro 'Creating autonomous vehicle systems', teníamos un primer gran bloque dedicado a los algoritmos. Dentro de esos algoritmos, a su vez, distinguíamos entre la 'sensación' y, en concreto, nos centramos mucho en localización, la percepción y la decisión.
Nos fijamos ahora en el último bloque, la decisión, donde son funciones básicas la planificación y el control del movimiento del vehículo. Estas funciones incluyen enrutamiento, predicción de tráfico, decisión de comportamiento, planificación del movimiento y realimentación.
Los mismos autores nos exponen que, tradicionalmente (si es que el término tradicional es aplicable a algo tan moderno como el vehículo autónomo), este problema se ha atacado como un problema de optimización con restricciones.
Sin embargo, los autores, aun reconociendo que todavía el estado del arte actual no es maduro, apuestan por el aprendizaje por refuerzo como el futuro de la planificación y el control del vehículo autónomo.
¿Cuáles son sus razones? Pues, nos aportan estas tres:
Los autores piensan que los escenarios a que se están sometiendo actualmente a los coches autónomos no son todo lo desafiantes que deberán ser cuando se generalice su uso. Se refieren a que se suelen usar por carreteras despejadas o entornos acotados y no tanto, por ejemplo, en entornos urbanos abiertos. Entienden que eso hace que los éxitos alcanzados hasta la fecha por los algoritmos de optimización no vayan ser generalizables o, al menos, no podemos estar seguros de ello.
Existen una multitud de datos disponibles, quizá explotables vía Big Data, pero que no han sido aprovechados hasta la fecha. Es más, no parecen existir mecanismos claros para que los algoritmos de optimización actuales puedan hacer uso de ellos y, sin embargo, los algoritmos de aprendizaje sí que los pueden aprovechar con relativa facilidad.
El aprendizaje por refuerzo, viendo en qué aciertan y en qué se equivocan, es la forma natural en que los conductores humanos aprenden, lo cual nos genera la expectativa de que es también la forma en que se debe enfocar el aprendizaje del vehículo.
Aparte de que los argumentos parecen bastante razonables, la autoridad y conocimiento que demuestran los autores a lo largo de todo el libro, me lleva a pensar que vale la pena atender a su apuesta y que, seguramente, en los próximos meses y años veremos un cada vez mayor uso del aprendizaje por refuerzo en el vehículo autónomo.
Hace hoy exactamente un año me despedía de Telefónica.
Tras algo más de 25 años de permanencia en la empresa (en el grupo, en realidad, porque pasé por tres jurídicas diferentes) el 22 de Marzo de 2018 me despedía de los que hasta entonces habían sido mis compañeros y decía adiós a una compañía a la que tanto había entregado y de la que tan orgulloso me sentía. Un día de emociones intensas y encontradas.
Ha pasado ¡quién lo diría! justo un año de aquello.
Creo que mantengo con mi antigua compañía una relación muy sana: sigo siendo cliente y accionista, le sigo guardando cariño, sigo en contacto con algunos de mis antiguos compañeros, sigo visitando esporádicamente la sede de Las Tablas, sigo colaborando con los blogs corporativos y estoy razonablemente al tanto de lo que está haciendo. La miro, en fin, como algo mío y querido. Pero no hay en esa mirada nada de nostalgia ni de detención contemplativa en un pasado que ya se fue. Bien al contrario, me encuentro muy concentrado, muy ilusionado y cada vez más satisfecho con mi trayectoria profesional actual.
Pero a pesar de ello, hoy, en este primer aniversario de mi salida, quería tener un recuerdo para ese día y para mi Telefónica y, lo que se me ha ocurrido es recopilar los artículos de este blog en los que he hablado de ella y de lo que me hacía pensar y sentir. Hay una parte importante de la historia que se pierde, porque yo entré en Telefónica en Diciembre de 1992, mientras que este blog nació en Enero de 2009, pero en cualquier caso, es para mi un repaso significativo y especial, con eventos importantes y sentimientos profundos.
Se trata de nueve etapas, nueve artículos, que atesoran recuerdos y que creo que transmiten bien lo que ha significado mi paso por esa gran compañía.
¿Me acompañas en este recorrido?
8-Marzo-2009: sobre el cambio de marca a Movistar
Fue la primera vez que escribía sobre Telefónica, y lo hice a propósito del cambio de marca. Mucho más que un cambio de logo, que también, desde el punto de vista comercial y para el segmento residencial dejaba de llamarse Telefónica para acogerse a la marca Movistar. Ese cambio, independientemente del acierto o no desde un punto de vista de marketing, me producía sensaciones encontradas, que es lo que recogía en este artículo: 'Dimensión afectiva de una marca'.
27-Marzo-2009: Telefónica muestra su cara más social
Poco después Telefónica daba un golpe de efecto al recortar, en plena crisis económica, nada menos que en un 50% de la cuota de las personas en paro. Creo que fue una de las primeras veces que Telefónica mostró de forma tan abierta su cara más social. Es cierto que económicamente era una medida mucho menos costosa de lo que podía aparentar y que también producía beneficios intangibles en forma de reputación corporativa y marca. Con todo, no dejó de ser un bonito detalle y un acierto desde muchos puntos de vista. Hablaba de ello en el artículo: 'Marketing social'.
19-Julio-2009: sobre la experiencia de cliente con visión de empleado
En este caso, la experiencia era algo más negativa. Tras sufrir en mis propias carnes, en el rol de cliente, un defecto de atención por parte de mi compañía me decidí a escribir este artículo, no sin ciertas reservas: 'La experiencia de cliente... y empleado'.
5-Agosto-2010: sobre la adquisición de Tuenti
En verano de 2010 Telefónica adquiría Tuenti, la red social española que en aquella época y en el mercado español plantaba cara al mismísimo Facebook y era la delicia, casi la obsesión, de los más jóvenes. La adquisición planteaba opiniones de naturaleza tanto estratégica como sobre si Telefónica sería capaz de entender y gestionar un negocio y una cultura como las de Tuenti, tan diferentes. Pero a mi, lo que me causaba zozobra, lo que todavía hoy me encoge un poquito el corazón al recordarlo, era la carita de mi hija, a la sazón usuaria y fan de la red social, preguntándome preocupada: 'Papá ¿Qué vais a hacer con Tuenti?'.
23-Julio-2014: El orgullo de vivir Universitas Telefónica
En Julio de 2014 asistí por primera y última vez a un curso sobre innovación en Universitas Telefónica, la universidad corporativa de la operadora. Una experiencia muy especial tanto por el espectacular nivel de la formación recibida como por la experiencia de experimentar una Telefónica que por primera vez sentí realmente como una multinacional moderna y poderosa. En la segunda noche, en mi habitación escribí, pleno de orgullo y sentido de pertenencia, el artículo 'La innovación, la diversidad y la fe'. Sucedió que lo leyeron los responsables de Universitas esa misma noche o al día siguiente y, en el acto de despedida del curso, y sin estar yo avisado, me hicieron entrega pública de un pequeño premio en agradecimiento. ¡Qué bien me sentí!
7 de Noviembre de 2016: Elijo todo... y elijo Telefónica
Algo más de dos años después, en Noviembre de 2016, Telefónica lanzó la campaña en medios con el lema del entonces recién estrenado plan estratégico: "Elijo todo". Y nos pidió a todos aquellos empleados habituales en el uso de medios sociales que apoyásemos la campaña en Twitter, a ver si conseguíamos un Trending Topic (por cierto, lo conseguimos :) ). Pero a mi, me gustaba tanto el anuncio, me sugería tantas cosas, que me decidí a escribir un post en este blog y que titulé 'Elijo todo. Una reflexión sobre orgullo, pertenencia y transformación'. Uno de los artículos que más me han gustado de todos los muchos escritos en este blog, y no me refiero sólo a aquellos que hablan de Telefónica, sino al conjunto. Y lo mejor fue que el artículo, de nuevo, fue 'detectado' nada más y nada menos que por el equipo corporativo de comunicación de Telefónica y me pidieron poderlo mencionar cosa que, evidentemente, acepté más que encantado. Salió en los medios internos y durante unos días, por mor de este post, mi imagen estuvo en las pantallas de plasma que hay en la entrada de todos y cada uno de los edificios de Distrito T (y creo que en otras sedes como Diagonal 00).
11-Diciembre-2017: Los 25 años
Diciembre de 2017. Ya se veía el final del viaje, pero unos meses antes se cumplía un aniversario redondo: mis 25 años en Telefónica. Y escribí a modo de recuerdo y homenaje el artículo que se titulaba, simplemente '25 años en Telefónica, un repaso breve pero completo a mi trayectoria en Telefónica hasta la fecha y a mis principales recuerdos.
3-Julio-2018: Sobre el blog A un CLIC de las TIC
El artículo 'El callado éxito del blog A un CLIC de las TIC: tan fácil y tan difícil' en realidad fue una suerte de epílogo porque lo escribí, ya fuera de Telefónica, en honor al blog en el que he estado (y sigo estando) colaborando durante tantos años y que, por fin, recibió el reconocimiento que se merecía en un acto encabezado por el mismísimo presidente de Telefónica de España.
20-Marzo-2018: La despedida
Y 'Hasta siempre Telefónica. Banda sonora para un adiós y un futuro' fueron el artículo y el vídeo con los que me despedí de mi querida Telefónica. Un vídeo que venía concibiendo desde hacía meses y editando desde unas semanas antes. Confieso que durante esa edición se me escapó alguna lagrimilla y siempre me produce emoción cuando lo vuelvo a contemplar, cosa que hago de vez en cuando.
Bienvenidos al futuro
Y cierro ya no con un post, sino con un lema que fue objeto del primer anuncio de Telefónica en Televisión.
Telefónica ya es un recuerdo, por más que sea un recuerdo muy vivo y querido.
Pero ahora tengo otras hermosas realidades y otros muchos y muy inspiradores proyectos. Tras el merecido y sentido homenaje a la que fue mi compañía, en seguida vuelvo mis ojos y mis energías a mis nuevos sueños.
'The simple implementation guide to robotic process automation (RPA)' es un libro algo diferente a la mayoría de los que he leído en este campo ya que no se dedica a explicar qué es RPA, qué capacidades ofrece o su impacto en la masa laboral, y tampoco explica ninguna herramienta concreta (en realidad, ni las cita), sino que lo que hace es contar la experiencia y lecciones aprendidas por la autora y su equipo, durante la implementación de dos pilotos de RPA. Y lo hace, en efecto, muy centrada en su propia visión y experiencia, y un poco al margen del discurso dominante sobre RPA.
El libro se estructura en siete capítulos:
'Chapter 1: An Overview of RPA Deployment:' Hace un resumen a vista de pájaro de la historia de los dos pilotos, incluyendo un 'timeline' con los hitos principales y luego describe el contenido de los siguientes capítulos.
'Chapter 2: Documentation for Getting Started and Funded:' Cuenta cómo, en una fase inicial, realizaron una investigación preliminar, incluyendo contacto con una universidad, visita a otra empresa que había hecho una implementación de RPA, etc. Luego habla de cómo hacer un análisis coste-beneficio para, finalmente, mencionar la petición de financiación para el proyecto.
'Chapter 3: The Winning RPA Team and Structure' nos cuenta las decisiones que adoptaron en cuanto a equipo de trabajo e identifica los roles relevantes. Luego explica, con cierto detalle, las opciones posibles en cuanto a estructura, especialmente quién debe dirigir el proyecto de implementación, si TI o negocio, y el grado de centralización. Tambien razona sobre el interés de involucrar o no a consultores externos. Tras explicar las principales ideas al respecto, nos cuenta su decisión en los dos pilotos.
'Chapter 4: How to Get Started with a Sucessful RPA Deployment' Habla de aspectos iniciales como la necesidad de comenzar por proyectos pequeños, un nuevo y bastante amplio repaso a los roles necesarios, y la necesidad del apoyo de la alta dirección.
'Chapter 5: Implementation Strategy' Explica algunas lecciones aprendidas durante la implementación y aspectos como la relación con los fabricantes y las preguntas a hacerles, la opción de hacer un despliegue con personal propio, y algunos factores claves de éxito identificados.
'Chapter 6 Governance Structure and Documentation:' Se centra en explicar la documentación a generar y aspectos de seguridad a tener en cuenta.
'Chapter 7: Continually Modify and Improve' Nos propone, brevemente, un modelo de madurez de RPA y anima a la mejora continua.
'The simple implementation guide to robotic process automation (RPA)' es un libro cortito, quizá no del todo ordenado ni con una redacción demasiado cuidada, pero con el valor de explicar una experiencias reales y con una perspectiva diferente a la del resto de la todavía escasa literatura sobre esta tecnología.
Kelly Wibbenmeyer
(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn)
Kelly Wibbenmeyer
Consultora senior en Mercy y profesora adjunta de la Lindenwood University. Con un grado en Management Information Systems por la Wright State University y doctorado por la North Central University en San Diego.
Experta en estrategia de innovación tecnológica entendiendo no solo la tecnología sino también la visión estratégica y el proceso de gestión que permiten crear nuevo crecimiento neto y crear una visión clara para el desarrollo futuro.
Experta en RPA en materia del desarrollo de gobierno y crecimiento estratégico. Responsable de los esfuerzos de innovación para incluir inteligencia artificial y gestión del conocimiento. Responsable del despliegue de RPA.
En ocho meses completó dos pilotos RPA, con su estrategia de gobierno, el camino de implementación (incluyendo la selección de proveedores) y llevó a cabo nueve implementaciones de RPA con un equipo muy ligero compuesto por cuatro personas.
Preparada en muchas disciplinas como gestión de sistemas de información, gestión de bases de datos, auditoría IT, dirección de proyectos e innovación tecnológica. Certificada en Six Sigma (cinturón negro), ITIL (nivel experto) y dirección de proyectos.
Hace unos días veíamos un post dedicado a proporcionar un marco de tecnologías para el vehículo autónomo. En él, y siguiendo la propuesta hecha por Saoshan Liu, Liyun Li, Shuan Wu y Jean-Luc Gaudiot en su libro 'Creating autonomous vehicle systems', veíamos tres grandes elementos a saber: los algoritmos, el sistema cliente y la plataforma cloud. Se veía además en la propuesta que los algoritmos los podíamos subdividir en sensación, percepción y decisión. En otro artículo anterior nos centramos en el 'sensing' al hablar de localización en el vehículo autónomo. En el artículo de hoy hacemos un breve recorrido por la segunda parte de los algoritmos; la percepción en vehículos autónomos.
Recordamos que para los autores la percepción hace referencia a los algoritmos que permiten al vehículo entender el contexto en que se mueven a partir de la información obtenida en el 'sensing'. Esto incluye, por ejemplo, detectar a los peatones, ciclistas y otros vehículos, reconocer la superficie de la calle o carretera incluyendo sus divisiones en carriles, entender las señales de tráfico y los semáforos o monitorizar el movimiento de objetos en 3D.
¿De qué algoritmos y tecnologías estamos hablando entonces al hablar de percepción? En su obra, los autores mencionados explican y analizan las siguientes:
Detección de objetos: Se trata de una problemática fundamental en visión artificial y que precisa el modelado tanto de la forma del objeto como del hecho mismo de su aparición en escena. Para esta tarea los autores mencionan por ejemplo el uso de SVM ('Support Vector Machine'), un conocido algoritmo de Machine Learning.
Segmentación: que se puede entender como un enriquecimiento de la detección y que lo que persigue es dividir la imagen en segmentos o secciones significativos (en el sentido de que corresponden a distintos objetos o secciones de la imagen). Para esta tarea, los autores mencionan la aplicación de algoritmos de etiquetado de grafos y hacen referencia específicamente a CRF ('Conditional Random Field')
Profundidad y visión estéreo Se trata de generar una visión en profundidad. Básicamente, se trata de proporcionar dos imágenes (izquierda y derecha) para cada instante de la escena que se está visualizando y conseguir la correspondencia de puntos . Para esta labor, los autores nos hablan del uso de una función de coste, métodos basados en extracción de características (bordes, esquinas, etc) o métodos basados en superficies. Entre los algoritmos que se mencionan se encuentra SGM ('Semi-Global Matching').
Flujo óptico ('optical flow') Se entiende por flujo óptico como el movimiento en 2D de intensidades entre dos imágenes, un problema de visión artificial que está relacionado con el movimiento en 3D en el mundo físico. Se apoya en principios parecidos a los del análisis estéreo y profundidad pero es algo más complejo. Disponemos de secuencias de imágenes de la misma escena separadas por cortísimos espacios temporales y se trata de detectar variaciones en iluminaciones, reflejos, trasparencias, etc
Flujo de escena ('scene flow') viene a ser la versión en 3D de lo anterior y lo que en realidad necesitan los vehículos autónomos para tareas tan importantes como detectar obstáculos, evitar colisiones, etc
Monitorización ('tracking') intenta determinar el estado de diferentes objetos, averiguando su localización, velocidad y aceleración a lo largo del tiempo. Unas estimaciones que se ven dificultadas por problemáticas como objetos parcialmente ocultos, objetos de apariencia muy similar o cambios en la apariencia de los objetos debido a cambios en posición, iluminación, etc. Los autores nos indican que este tipo de problemas se suelen resolver como problemas de filtrado bayesiano secuencial, un algoritmo recursivo con dos pasos en cada iteración: predicción y corrección. También nos hablan de otras alternativas no recursivas basadas en la minimización de una función de energía global. Y asimismo mencionan el llamado 'tracking-by-detection' en que el mismo objeto es detectado en imágenes consecutivas y luego enlazado. Este mecanismo genera algunas incertidumbres debidas a problemáticas de asociación de datos, no consecución de la detección, etc que se gestionan aplicando MDP ('Markov Decision Process')
Deep Learning: Aparte de lo mencionado anteriormente, los autores dedican todo un capítulo a hablar de la aplicación del deep learning en percepción, incluyendo la resolución con estos algoritmos de algunos de los problemas mencionados más arriba. Así, nos hablan de las redes neuronales convolucionales (CNN, 'Convolutional Neural Networks'), y su aplicación en detección, segmentación semántica y flujos ópticos y de escena.
Como se ve,. se trata de una lista larga y compleja de técnicas y algoritmos y no he pretendido más que realizar un listado y resumen de lo que los autores mencionados explican mejor y de forma más extensa en su libro. La idea es disponer de un resumen y referencia para una posterior profundización por mi parte o, si lo desea, por la del lector de este blog.
Creo que, si algo demuestra el listado anterior de problemáticas y tecnologías, es lo complejo que es conseguir la conducción autónoma, que ésta se alcanza por la combinación armoniosa e inteligente de numerosas tecnologías y algoritmos y que, realmente es admirable y digno de asombro que estemos en el umbral, casi entrando ya, en una época en que la conducción autónoma es una realidad.
Aunque a veces tratemos el vehículo autónomo como una tecnología, lo cierto es que es una combinación compleja y sofisticada de muchas diferentes tecnologías y algoritmos, de diversas naturalezas, que de forma coordinada producen ese alarde tecnológico que es el coche auto dirigido.
Siguiendo esa misma fuente, quisiera hacer ahora un resumen / listado de las tecnologías que en relación a la localización del vehículo nos proponen estos mismos autores.
GNSS ('Global Navigation Satellite System'):: Se trata de una localización apoyándose en el uso de satélites, siendo GPS ('Global Positioning System') el caso más popular, pero existiendo otros como Galileo o Baidu. En este tipo de sistemas, un conjunto de satélites emiten señales que, cuando son captadas por un receptor, en este caso en el vehículo, le permiten estimar la posición, la velocidad y la hora. Aunque en teoría estos sistemas pueden dar una localización perfecta, en la práctica existen fuentes diversas de error que pueden conducir a errores de hasta 5 metros. De cara a una conducción por humanos no se trata de un error demasiado notable, pero sí lo es para el caso del vehículo autónomo, por lo que necesita añadir otras tecnologías que complementen GNSS.
SBAS ('Satellite Based Augmentation Systems'): son sistemas que complementan a los GNSS para reducir el efecto de los errores. Se basan en complementar el GNSS con la existencia de estaciones de referencia con unas coordenadas claramente conocidas. Los errores generados por GNSS se transfieren a un centro que genera correcciones diferenciales que, a su vez, se transmiten a través de satélites geoestacionarios.
RTK ('Real Time Kinematic and differential GNSS'): Con todo y lo anterior, es difícil garantizar errores de menos de dos metros. Sin embargo, para que un vehículo autónomo se mantenga en una carretera o vía, el error no puede superar los decímetros. Esto lo puede conseguir RTK que se basa en la instalación de receptores GNSS en estaciones base de localización perfectamente conocida. Con esto, se puede calcular el error entre la información obtenida a partir del GNSS y la conocida de la estación base e informar al vehículo de ese error. Con esto se pueden conseguir errores finales por debajo del decímetro.
PPP ('Precise Point Positioning'): Aunque RTK proporciona la precisión necesaria, es una solución que resulta algo cara. Como alternativa surge PPP. También utiliza unas estaciones de referencia que reciben señal del GNSS en tiempo real y calculan las correcciones que habría que aplicar a los resultados. Además, elimina otras fuentes de error como el error ionosférico y troposférico. PPP se diferencia de RTK en que proporciona un posicionamiento absoluto, no relativo como ocurre en el caso de RTK, y en que no necesita acceso a las observaciones de estaciones cercanas.
INS ('Inertial Navigation Systems'): Se trata de de la incorporación de las llamadas IMU ('Inertial Measurement Units') que mediante el uso de acelerómetros y giróscopos proporcionan información de aceleración tanto lineal como angular respectivamente, con lo que obtenemos una visión del movimiento relativo. Esta información se puede combinar con la procedente de GNSS mejorando la información de conjunto.
LiDAR ('Light Detection And Ranging'): Se trata de un sistema que emite luz láser intermitente y mide la luz reflejada mediante un sensor. Con ello, se puede generar una representación 3D del objetivo.
HD Maps ('High Definition Maps'): La idea de los mapas de alta definición es que el coche autónomo conozca por anticipado la información de la ruta de forma que sólo tenga que estar pendiente de variaciones respecto a esa ruta, en lugar de tener que descubrir toda la realidad a medida que avanza. La forma en que se plantea su uso es que el vehículo disponga de ese mapa digital y luego utilice LiDAR para localizar al vehículo en ese mapa.
Odometría visual: Se trata de estimar el movimiento del vehículo a partir de la información de cámaras. De alguna forma se trata de analizar cómo cambian las imágenes del entorno para a partir de ello deducir el movimiento del vehículo. Para ello se debe procesar las imágenes en tiempo real, extraer características clave, comparar y deducir el movimiento. Existen variantes estéreo, monoculares o inerciales
Odometría de las ruedas y 'Dead recknoning': La odometría de las ruedas deduce el movimiento mediante sensores situados en las ruedas del vehículo. Por su parte 'dead reckoning' (expresión que procede realmente de 'deduction reckoning') es una técnica no muy compleja para anticipar la posición de un vehículo a partir de una posición anterior e información de dirección y velocidad del movimiento.
Estas tecnologías que hemos mencionado no se usan de forma aislada sino que los vehículos autónomos combinan varias de ellas.
Por supuesto, el conocimiento de todas éstas tecnologías, tanto en sí mismas como en la forma en que se combinan entre sí, requeriría una explicación bastante más profunda (análisis que, por cierto, realizan los autores en el libro), pero a pesar de ello y, aunque sea sólo como referencia y curiosidad, me ha parecido interesante el mencionarlas en este breve listado.
'Magia. Del átomo a la realidad virtual' es un largo, ordenado y pedagógico recorrido por los fundamentos de la ciencia y tecnología digital, con especial cariño por las telecomunicaciones, dada la profesión del autor, pero abarcando en el fondo todo lo digital, donde se confunden las telecomunicaciones y el procesamiento de información. Un recorrido que nos conduce, con mano firme aunque amable, desde lo más básico y fundamental, el átomo y el electrón, hasta las últimas realizaciones y perspectivas en materia de Inteligencia Artificial, Internet de las Cosas o Realidad Virtual.
Un recorrido en el que llaman la atención algunas cosas. Por un lado, lo bien planificado que está y cómo cada capítulo va poniendo las bases para lo que ha de seguir, de manera que no quede fundamento sin cubrir. Por otro lado, es destacable la capacidad del autor para destilar y simplificar la esencia de fenómenos, teorías o tecnologías complejas y reducirlas a su esencia más básica y sencilla de entender. A esta pedagogía, contribuyen unas originales y clarificadoras figuras dibujadas a mano, ignoro si por el propio autor.
El texto, el espectáculo de magia, se estructura en seis actos, cada uno con cinco o seis capítulos:
Acto primero: de cómo el electrón hizo que naciesen las telecomunicaciones
Un acto en que se habla más de ciencia, y en concreto física, que de tecnología y que empieza desde los fundamentos más básicos, el átomo y los modelos atómicos hasta llegar a la electricidad. Este acto está compuesto por los siguientes capítulos:
Capítulo 1: El átomo
Capítulo 2: El electrón
Capítulo 3. La electricidad
Capítulo 4: La pila
Capítulo 5: La corriente eléctrica
Acto segundo. De cómo el sonido hizo las telecomunicaciones más sociales Ahora se mira a las telecomunicaciones más básicas con una cierta perspectiva también histórica. Se habla sobre todo, aunque no únicamente, de la telefonía original y la transmisión de voz. Se mira ya un poco a la tecnología pero todavía con algún importante componente físico como es lo relativo al electromagnetismo. Los capítulos que cubren esta temática son:
Capítulo 6: El telégrafo
Capítulo 7: El sonido
Capítulo 8: El electromagnetismo
Capítulo 9: El micrófono y el altavoz
Capítulo 10: El teléfono
Capítulo 11: La línea telefónica
Acto tercero. De cómo la imagen mejoró las telecomunicaciones y transformó nuestro ocio Vamos ya a unas telecomunicaciones más avanzadas y relacionadas con los medios de difusión: la radio y la televisión, fundamentalmente. Para ello, empezamos primero por entender los aspectos físicos sobre la luz y el color, para luego ya hablar de radio, televisión y satélites. Seis son los capítulos que intervienen en este acto:
Capítulo 12: La luz
Capítulo 13: La radio
Capítulo 14: La grabación
Capítulo 15: La televisión
Capítulo 16: El color
Capítulo 17: El satélite
Acto cuarto. De cómo los ordenadores lo cambiaron todo y dieron paso a la era del software Damos un cierto salto mortal, probablemente el único que se produce en todo el libro, para hablar de lo digital y las tecnologías de la información. Y lo hacemos con las bases de ese tipo de tecnologías, entendiendo qué es lo digital, cómo funcionan los transistores y microprocesadores para, desde ahí, ir avanzando hacia el software. Seis nuevos capítulos nos informan de todo ello:
Capítulo 18: Lo digital
Capítulo 19: La computación
Capítulo 20: El procesador
Capítulo 21: La memoria
Capítulo 22: El software
Capítulo 23: La red
Acto quinto. De cómo la tecnología ha mejorado nuestras vidas creando un mundo mejor Volvemos a las telecomunicaciones pero ya las más actuales, las más avanzadas, unas telecomunicaciones que ya se centran en los datos y que se hacen en banda ancha y movilidad y que permiten propuestas tan exigentes como es el streaming. Los temas abordados en esta acto se recogen en los siguientes cinco capítulos:
Capítulo 24: La telefonía móvil
Capítulo 25: La fibra óptica
Capítulo 26: El wifi
Capítulo 27: Las bases de datos
Capítulo 28: El streaming
Acto sexto. De cómo la tecnología hará que vuelva a surgir la magia Y cerramos el recorrido con un último acto que nos habla ya de las últimas soluciones digitales, soluciones que ya están aquí pero que todavía tienen mucho que crecer y aportar en el futuro próximo. Hablamos de cloud, inteligencia artificial, realidad virtual, internet de las cosas y los superconductores, que se contemplan en estos cinco últimos capítulos.
Capítulo 29: El cloud
Capítulo 30: La inteligencia artificial
Capítulo 31: El Internet de las cosas
Capítulo 32: Los superconductores
Capítulo 33: La realidad virtual
'Magia. Del átomo a la realidad virtual' es un gran libro de divulgación, a medias entre la ciencia y la tecnología, escrito en un lenguaje sencillo, directo y personal, que no evita en ocasiones, incluso, el desparpajo y la anécdota. Y como tengo la suerte de conocer al autor, con el que he compartido empresa y algunos esfuerzos, me he sentido como si escuchase su propia voz diciendo exactamente las palabras que se plasman en las páginas del libro. Pero creo que cualquier lector se sentirá personalmente aludido e interpelado por las palabras de José Antonio, el autor, y disfrutará del saber y el conocimiento que el libro destila.
Tal vez, aunque el autor nos deje claro que la magia no existe en ciencia y tecnología, debamos concluir que sí puede haber magia en la forma de contarla.
José Antonio Ces
(Fuente: Ligera elaboración propia de la biografía en Room 714)
José Antonio Ces
José Antonio Ces es ingeniero superior de telecomunicaciones por la Universidad Politécnica de Madrid y su carrera profesional ha girado siempre alrededor de la tecnología y el marketing.
Después de desarrollar software en Ericsson durante cinco años, se incorporó a Telefónica Móviles para ser partícipe de la explosión de la telefonía móvil en España. En Telefónica se desarrolló en funciones de marketing y desarrollo de negocio hasta llegar a ser Director de Marketing para el segmento de empresas. Su actual etapa profesional tiene que ver con el emprendimiento en empresas como Room 714, Krashlando y The Wise Seeker, en las que a día de hoy sigue intentando acercar la tecnología a sus compradores.
José Antonio es autor del libro 'Magia. Del átomo a la realidad virtual'
Inquieto, comprometido, trabajador, de su familia, guitarrista aficionado y del Atletico de Madrid.
He querido adentrarme un poco más en las interioridades de los vehículos autónomos, intentando superar las ideas genéricas que les rodean y conocer mejor, y con cierto rigor, el conjunto de tecnologías que utilizan.
El marco conceptual que proponen los autores es el que se muestra en la figura:
Arquitectura de los sistemas de conducción autónoma
En este esquema de bloques, los autores distinguen tres grandes componentes, que en la figura se marcan con colores diferentes:
Algoritmos (en color carne) cuya misión es extraer información relevante a partir de los datos en bruto de los sensores con que están dotados los vehículos y, a partir de ellos tomar las decisiones para las siguientes acciones. A su vez, clasifican los algoritmos en tres bloques:
Sensación ('sensing'): que se ocupa de la extracción de información y donde incluyen tecnologías como GPS ('Global Positioning System'), IMU ('Inertial Measurement Unit'). LiDAR ('Light Detection and Ranging') y las cámaras.
Percepción: cuya misión es entender el contexto del vehículo y donde se sitúan algoritmos de localización, reconocimiento de objetos y seguimiento de objetos.
Decisión: que es donde, finalmente, se adoptan las decisiones para las siguientes acciones del vehículo y en cuyo bloque aparecen la planificación de rutas, la predicción de acciones o la evitación de obstáculos.
Sistemas cliente: (en color azul) que, de alguna forma, es la plataforma hardware y software donde se enmarcan los elementos del componente de algoritmos. Incluye tanto la plataforma hardware como el sistema operativo.
Plataforma cloud: (color amarillo) en que se sitúan una serie de bloques que no precisan de funcionamiento en tiempo real sino capacidades de computación offline y almacenamiento. En este componente aparecen los Mapas de Alta Definición (HD Maps), las funcionalidades para el entrenamiento del modelo y para la simulación y el simple almacenamiento de datos.
Ejemplo tecnologías coche autónomo (fuente 'The economist')
En los siguientes capítulos, los autores van desmenuzando y analizando estos elementos. Resulta muy interesante pero, de momento, en este post me quedo, simplemente, con esta arquitectura o este esquema por lo claro que resulta como marco para seguir profundizando.
La implantación a gran escala de automatizaciones RPA (Robotic Process Automation) conlleva algunas decisiones de naturaleza no sólo técnica, sino también organizativa. No es en ésto muy diferente de cualquier otro gran proyecto de implantación de software o, incluso, de transformación digital.
Y en un cierto momento nos habla de algunas decisiones de naturaleza organizativa que tuvieron que tomar y que se movieron en dos dimensiones: liderazgo y centralización.
Veamos esas dos dimensiones, las opciones que la autora nos plantea y su elección.
Dimensión 1: Liderazgo de la iniciativa
En este caso, se trata de decidir quién debe liderar la iniciativa, quién es el dueño de la misma. Y la autora nos plantea estas tres opciones:
Liderada por TI: El área técnica de TI es el líder absoluto y sólo recurre puntualmente al negocio para clarificaciones sobre los procesos. La principal ventaja es que el despliegue de sistemas es el trabajo natural de TI. Por contra, implica un esfuerzo por parte de la unidad de TI para entender los procesos de negocio.
Liderada por el negocio: Son las unidades de negocio las que lideran la iniciativa, normalmente recurriendo a integradores o vendedores para la realización de las labores técnicas. Su principal ventaja es el inherente conocimiento y responsabilidad de los procesos a automatizar por parte del negocio. A cambio, les puede resultar complejo entender a los integradores o realizar ellos mismos las tareas de naturaleza técnica.
Esquema colaborativo: En este modelo, existen en el equipo miembros procedentes de ambas áreas: negocio y TI. Aporta la visión de ambos mundos pero, a cambio, puede traer consigo problemáticas de coordinación y de gestión de recursos de diferentes unidades.
En su caso, la decisión fue optar por el modelo colaborativo, gestionado por un comité con tres miembros.
Dimensión 2: Centralización
Se trata de definir el origen y encuadre organizativo de los recursos asignados al proyecto. La autora identifica estos tres modelos:
Centralizado: Todos los recursos, procedan de donde procedan, se centralizan en una unidad organizativa que será de TI o negocio según la decisión adoptada en la dimensión anterior. Es un modelo que facilita la gestión y el liderazgo pero que, a cambio, puede generar problemáticas a las unidades origen de esos recursos y también puede producirse una cierta 'desconexión' de esos recursos respecto a sus unidades de origen.
Distribuido: En este caso, los recursos utilizados permanecen en sus unidades de origen potencialmente pertenecientes a toda la organización y además trabajan de alguna forma en la parte del proyecto que afecta a esas unidades. La unidad de TI aporta la parte técnica del proyecto apoyando al resto de unidades de negocio. Aporta en teoría un mejor conocimiento de las problemáticas de cada una de las unidades pero puede ser más difícil de gestionar y, además, la unidad de TI puede verse sobrepasada y acabar constituyéndose en un cuello de botella.
Mixto: Estructura un grupo centralizado para apoyar aquellas unidades que no tengan recursos propios suficientes (por cantidad o capacitación), pero las unidades de negocio pueden disponer de sus propios recursos. Este modelo permite a cada departamento hacer el despliegue adaptándolo a sus capacidades y disponibilidades de recursos. A cambio es un modelo menos estructurado en el que no existe una forma estándar de hacer las cosas.
En el caso concreto de la implantación que nos cuenta la autora, su equipo optó por el modelo mixto.
*****
Las dos problemáticas que plantea Wibbenmeyer son comunes en la literatura sobre RPA y, como decía en el inicio del post, en realidad son recurrentes en cualquier gran proyecto de implantación de una solución digital de cierta envergadura.
No parece existir un consenso real pero, en general, la literatura con que yo me he encontrado, tiende a apostar por un liderazgo del negocio para la primera dimensión y ser menos claro en el segundo pero tender más hacia un modelo centralizado. Aasí, por ejemplo, el material de formación de UiPath, cuando habla del Centro de Excelencia RPA, aunque plantea los tres modelos, centralizado, distribuido y mixto, tiende a aconsejar el centralizado.
En mi opinión, no creo que exista una receta absolutamente universal y depende de las circunstancias de cada organización e incluso, especialmente en lo que al liderazgo se refiere, de las personas disponibles, tanto por sus conocimientos y experiencia como por su actitud más o menos abarcadora y generadora de consensos y tracción.
Prefiero no dar en este momento una recomendación concreta y definitiva pero sí quisiera advertir de dos cosas.
Por un lado, en cuanto al liderazgo: se puede optar por cualquier opción pero el líder que se decida debe equilibrar tanto la visión de negocio como la técnica. Debe tener claro que el objetivo final es siempre el negocio pero también debe ser consciente de que se deben tomar decisiones teniendo en cuanta la tecnología si se quiere utilizar ésta de la mejor forma y, sobre todo, si se quiere conseguir soluciones que sean seguras, escalables y mantenibles.
Por otro lado, y en cuando a la centralización o no: cuidado con la complejidad de gestión. Es muy bueno involucrar a todas las unidades implicadas. Lo es tanto por recoger todo el conocimiento como por aunar voluntades y facilitar el cambio. Pero no olvidemos que un equipo muy distribuido (no ya sólo en lo físico, sino también en lo organizativo) es más difícil de gestionar.
Como decía, no creo que haya una solución universal (quizá por eso la literatura no acaba de ponerse de acuerdo), pero cualquier decisión debe ser muy práctica y muy consciente de las implicaciones.
'Microsoft Dynamics 365 for dummies' es, simplemente, y como cabe esperar, una descripción del producto Dynamics 365 sin ningún tipo de pretensión ni literaria ni de originalidad. Eso sí, y a diferencia de otros libros de la serie 'for dummies', en este caso, la descripción es algo menos didáctica y mucho más exhaustiva. Perjudica, creo, en parte a la obra, el hecho de que el propio producto, más bien familia de productos, recogidos en Dynamics 365 es en sí mismo complejo y, sobre todo, confuso. Una confusión que nace del hecho de que Dynamics 365 es una marca que recoge productos de diferente procedencia que Microsoft está intentando unificar y armonizar pero que, en este momento, están lejos de ser un producto realmente único, con una arquitectura técnica y, sobre todo, una visión funcional claramente delimitadas. Hay que decir, que el autor nos explica desde el principio, y de forma bastante detallada, cómo es esta compleja historia y mapa de productos con lo que, al menos, el lector va advertido.
El contenido se recoge en diecisiete capítulos agrupados en cinco partes, como sigue:
'PART 1: DOING GREAT THINGS WITH MICROSOFT DYNAMICS 365:' En esta parte se nos explica, más que el producto en sí mismo, algunos elementos de contexto: el mapa de productos que componen Dynamics 365 y formas de extender y complementar su pontencia con elementos de integración con otros productos de Office 365, con PowerBI para reporting, con PowerApps para desarrollo y con Flow para hacer Workflows.
'Chapter 1: Foating on a Secure Cloud': Explica las ventajas del modelo cloud y, sobre todo, intenta dejar claro el complejo mapa de productos de Microsoft en el campo del ERP y el CRM, su evolución y dónde está Dynamics 365. También comenta algunos aspectos específicos sobre migración de versiones antiguas a la nueva.
'Chapter 2: Extending Ypur Reach with Microsoft Dynamics 365': Explica algunos aspectos de la administración del producto: usuarios, suscripciones, contraseñas, etc así como la integración con el correo Outlook, con Excel, mediante un Add-in o con SharePoint, OneDrive o Skype
'Chapter 3: Powering Up Your Business Intelligence': Nos habla de PowerBI, la herramienta de reporting y nos cuenta su historia, cómo instalarlo, cómo conectarlo con los diferentes módulos y cómo empotrar 'dashboards' hechos con PowerBI dentro de Dynamics 365.
'Chapter 4: Extending Dynamics 365 with PowerApps': Se centra en PowerApps, la herramienta de desarrollo simplificado de aplicaciones móviles y web. Nos habla de cómo configurarlo y cómo conectarlo con Dynamics 365
'Chapter 5: Going with the Microsoft Flow to Enhance Dynamics 365': Nos habla de Microsfot Flow, la herramienta para hacer workflows sencillos. Nos explica la relación de los workflows con la gestión documental y, en cuanto al producto en sí, cómo configurarlo y su uso en el ámbito de CRM y ERP.
'PART 2: CUSTOMER ENGAMEMENT (FORMERLY DYNAMICS CRM ONLINE):' Esta segunda parte se centra en la parte CRM de Dynamics 365.
'Chapter 6: Turning Relationships into Revenue with Sales': comienza introduciendo algunos conceptos sobre CRM para luego explicarnos el uso del producto en aspectos como la gestión de leads, cuentas y contactos, el seguimiento de oportunidades, así como la creación de ofertas, pedidos y facturas
'Chapter 7: Connecting with Customer Anytime, Anywhere with Customer Service': Se centra en los aspectos de servicio al cliente. Nos presenta conceptos como los de casos, actividades, notas, tareas, colas o vistas y nos explica cómo trabajar con casos. También nos recuerda cómo incluir dashboards de servicio al cliente.
'Chapter 8: Profiting from Project Service Automation': Nos explica que, en la visión de Microsoft hay dos enfoques para la gestión de la operación por proyectos que en el caso de Dynamics 365 se encuentra en el bloque de CRM. En este, en mi opinión, bastante incorrecto uso del término proyecto, lo que recoge son formas de entregar producto o servicio fuera del ámbito de la distribución comercial. En éste capítulo, en concreto, se centra en las funcionalidades orientadas a negocios de servicios profesionales.
'Chapter 9: Creating and Nurturing Leads with Marketing': Se enfoca ahora más a los aspectos de marketing. Nos habla de segmentación y listas de clientes, de cómo recoger la voz del cliente y del uso de 'dashboards' para marketing.
'Chapter 10: Going Mobile with Field Service': Es la segunda opción de esa mal nominada gestión de proyectos y que, en este caso, se refiere a la gestión de fuerzas de campo y del acceso a Dynamcs 365 mediante móvil para esas fuerzas de campo. Tras algunas consideraciones previas nos muestra cómo es la gestión del ciclo de vida de una orden de trabajo así como algunos aspectos de administración.
'PART 3: BUSINESS CENTRAL ERP (FORMERLY DYNAMICS NAV):' Nos explica la primera opción en el campo de ERP que sería Business Central, evolución de Navision
'Chapter 11: Accounting for Your Business with Business Central': Primero nos explica a vista de pájaro el producto Business Central y su uso y luego nos habla de temas como la gestión de cuentas, la entrada de ofertas, la creación de facturas, créditos o memorias y la gestión de la información de clientes y fabricantes.
'Chapter 12: Setting Up Business Central for Optimal Results': Explica una larga serie de posibilidades en cuanto a la configuración y adaptación del producto
'PART 4: FINANCE AND OPERATIONS (FORMERLY DYNAMICS AX):' Aborda en este caso la segunda opción en cuanto a ERP, el producto procedente de AX y centrado en los aspectos financieros.
'Chapter 13: Going Beyond Crunching Numbers with Financial Management': Vuelve a recordar la historia y evolución de los productos de Microsoft que se integran en Dynamics 365 y nos proporciona una visión de alto nivel de la funcionalidad de Finanzas y algunos aspectos de configuración.
'Chapter 14: Becoming a Smooth Operator with Operations': Presenta ahora, pero sin apenas profundizar, las funcionalidades de Operación con aspectos como la gestión de catálogo o inventario pero dedica casi más espacio a hablar de temas más genéricos del módulo como el manejo de opciones, hojas excel, etc
'Chapter 15: Looking Under the Hood (understanding the D365O Technology': Habla de algunos aspectos más técnicos e internos el producto en aspectos como la integración, la personalización de la interfaz de usuario etc. Y, de forma muy breve y quizá no muy estructurada, incluye también en este capítulo la parte funcional relacionada con gestión de recursos humanos
'PART 5: THE PART OF TENS:' Una suerte de resumen de aspectos a destacar
'Chapter 16: The Ten Most Exciting Capabilities if Dynamics 365': enuncia lo que considera las diez mejores características de Dynamics 365
'Chapter 17: Ten Dynamics 365 Myths to Dispel': Cierra con lo que considera son diez mitos a desterrar sobre Dynamocs 365.
'Microsoft Dynamics 365 for dummies' permite hacerse una idea bastante aproximada de las capacidades funcionales de Dynamics 365. Creo que se encuentra mejor descrita la parte relacionada con CRM (parte 2) que la relativa a ERP (partes 3 y 4) pero si lo que se pretende es saber qué cabe esperar a del producto puede ser suficiente (e incluso prolijo) aunque, evidentemente, para un desarrollo, una implantación o un uso en el día a día se precisa algo más de información.
Un libro, en fin, informativo y trabajado, pero sin alharacas ni aportaciones especialmente originales, cosas que no cabe esperar, por otro lado.
Renato Bellu, el autor de 'Microsoft Dynamics GP for Dummies' es uno de los más importantes expertos en implementación de ERP. Renato comenzó su andadura con Dynamics GP en una de las 'Big Four', PricewaterhouseCoopers,y a partir de ahí continuó siendo el líder de pensamiento para la división Avanade de Accenture.
Los diseños de Bellu han recibido el premio Microsoft Pinnacle Award en la Convergence 2005 conference, cuando Bill Gates fue speaker inagural. A partir de ahí, Renato continuo diseñando sistemas ERP y ECM para entidades famosas y para una de las grandes ciudades de Estados Unidos. Además, está especializado en Dynamics GP, Dynamics AX, Unit4 Business World (Agresso) y Hyland OnBase WorkView/Case Manager, que es una solución de Enterprise Content Management (ECM)
Renato es a la vez un experto funcional en aplicaciones y un programador avanzado en SQL y .Net que desarrolla modificaciones de pantallas, portales de reporting de business intelligence, utilidades de conversión de datos y programas de integración automatizada (interfaces de datos).
Navidad indefinida
-
Cuando, como todos los años, publico este post navideño, esta felicitación,
este innecesario recuerdo de que ha llegado la Navidad, busco un algo
difere...