miércoles, 28 de junio de 2017

La importancia del contenido en realidad aumentada


La tecnología, con todo y lo apasionante y cautivadora que resulta, no es más que un medio para la mayor parte de nosotros, para todos menos para el reducido conjunto de profesionales que desarrolla productos tecnológicos o realiza investigación y desarrollo.

La tecnología, superado su innegable embrujo, debe ser portadora de algo para que tenga sentido, debe servir a un fin, para que sirva de algo.

En el caso de la realidad aumentada, ese algo es el mensaje, un mensaje que puede ser información, por ejemplo en el caso de las aplicaciones quizá más profesionales, o un mensaje que puede ser una historia, en el caso de aplicaciones más lúdicas.

Y para el usuario, al final, eso es lo que importa. Y, por tanto, el mensaje tiene que ser bueno por derecho propio, independientemente de la tecnología que lo soporta.

Así nos lo recuerda Alain B. Craig en su libro 'Understanding augmented reality' cuando nos dice:

If Augmented Reality is used to tell a story the story must be good without Augmented Reality. If Augmented Reality is used to convey information, the information must be good in its own right.

Así que, al igual que se dice, por ejemplo, en storytelling o en periodismo 'contemos una buena historia', la misma receta se aplica a la realidad aumentada: contemos una buena historia, proporcionemos una buena información...

lunes, 26 de junio de 2017

Sensores para realidad aumentada


Ya comentábamos en el post anterior que Alain B. Craig es muy ordenado en su libro 'Understanding augmented reality'. En efecto, tiende a clasificar y enumerar todas las posibilidades dentro de las tecnologías o soluciones que componen la realidad aumentada.

Y eso nos viene muy bien para poner en orden nuestras propias ideas. Si en el artículo anterior veíamos los tres componentes básicos, sensores, procesador y monitor, vamos ahora, siguiendo el camino que nos traza el autor, a repasar los primeros, los sensores.

¿Qué sensores se utilizan, pues, en realidad aumentada?

Pues esta es la clasificación que nos propone Craig:
  • Sensores usados para trazado (tracking): se encargan de conocer la posición del mundo real, de los usuarios y cualquier dispositivo de la solución. De esta forma se puede conseguir esa sincronización o registro entre mundo real y virtual que comentamos al dar la definición de realidad aumentada. A su vez, estos sensores los clasifica en:

    • Cámara (visión por ordenador): quizá una de las tecnologías más importantes. Craig, sin embargo, más que explicar la tecnología alrededor de la visión por computador en lo que se centra es en los 'fiducial markers', es decir, marcas en el entorno que permiten al sistema de visión y a la solución en su conjunto, no sólo observar lo que existe y su movimiento sino también situarlo espacialmente.

    • Posicionamiento (GPS): una tecnología no muy específica de la realidad aumentada pero que también sirve en ocasiones para el posicionamiento espacial grosero.

    • Giróscopos, acelerómetros, brújulas y otros: otro tipo de sensores que permiten apreciar la orientación (giróscopos), dirección (brújulas) y aceleración (acelerómetros). Muchos de estos sensores vienen ya incorporados, por ejemplo, en móviles y tablets.

  • Sensores para recoger información del ambiente: el tipo de información que recogen puede incluir humedad, temperatura y otra información atmosférica. Otro tipo de informaciones posibles son, por ejemplo, el pH, tensión eléctrica, radiofrecuencia, etc

  • Sensores para recoger entradas del usuario: en este apartado se incluyen dispositivos bastante comunes como botones, pantallas táctiles, teclados, etc.

Se trata, como vemos, de una clasificación sencilla, fácil de entender y recordar, y que nos da una idea de que se juntan desde sensores muy, muy comunes como los teclados o el GPS) con otros más especializados (como, por ejemplo, la visión por computador).

Con esto hemos repasado rápidamente la tipología de sensores utilizados en realidad aumentada.

Aprovechándonos del rigor y orden de Alain B. Craig, veremos también algo, en futuros artículos,  sobre los otros elementos de las soluciones de realidad aumentada.

viernes, 23 de junio de 2017

Los tres elementos nucleares de una solución de realidad aumentada


Si algo caracteriza el libro 'Understanding augmented reality' de Alain B. Craig es su orden y estructura. Trata todo lo relativo a la realidad aumentada en dos pasos: primera identifica los elementos que componen lo que quiere explicar y luego repasa, uno a uno, sus características técnicas, funcionales o lo que sea menester.

Y empieza en esa línea ya desde el principio cuando nos identifica los tres elementos nucleares de una solución aumentada. Son éstos:

  • Sensores: que permiten conocer el estado del mundo real en que se enmarca la solución.

  • Un procesador: que evalúa la información recibida de los sensores y 'genera' la realidad digital que lo acompaña y cómo se comporta

  • Un monitor: que muestra al usuario esa realidad aumentada que combina el mundo real y el virtual/digital.

Un esquema sencillo y fácil de entender (aunque luego sensores, procesadores y monitores puedan hacer uso de tecnologías complejas u difíciles). Un esquema que, por otra parte, es muy común a muchas soluciones digitales que interactuan con el mundo físico real, no sólo con el usuario humano.

Seguramente escriba próximamente en este blog sobre ese patrón de las soluciones digitales que interactúan con el mundo físico. De momento, los tres componentes nucleares que expone Craig nos sirven para estructurar nuestras ideas y algunos contenidos que vendrán.

miércoles, 21 de junio de 2017

¿Por qué realidad aumentada en lugar de física?


¿Por qué realidad aumentada? ¿Por qué enriquecer nuestra realidad física con elementos digitales en lugar de con otros elementos físicos?

Esa pregunta se la formula Alan B. Craig en las primeras páginas de su libro 'Understanding augmented reality'. Y ésta es su respuesta:

When artifacts are made of physical materials, it requires significant effort and time to make alterations, specially when those alterations are significant.

Así de simple, pero así de importante: aumentamos la realidad física con una realidad digital porque esta última es infinitamente más moldeable, rápida y barata que la realidad física.

Y digo que es muy importante porque no se trata sólo de realidad aumentada. Se trata de la esencia de lo digital y por qué lo digital es tan disruptivo.

En cursos que he impartido recientemente sobre transformación digital, en el momento de explicar a los alumnos por qué lo digital es disruptivo, les cuento cinco características que explican esa disrupción y dos están implícitas en la explicación que Alan B. Craig propone para explicar el porqué de la realidad aumentada: la moldeabilidad (programabilidad) y el precio (coste marginal cero).

La realidad aumentada es sólo, en ese sentido, una manifestación más de la disrupción.

lunes, 19 de junio de 2017

Cinco tendencias en experiencia de cliente




Ahora, y siguiendo esa misma fuente, vemos las cinco tendencias que identifica el informe en ese mismo campo de la experiencia de cliente.

Son estas:
  • Escucha social: Se trata de monitorizar y analizar las conversaciones acerca de la propia marca que se producen en los medios sociales e intentar obtener conclusiones y definir acciones.

  • Análisis de sentimiento: Muy relacionado con el anterior se trata de analizar el contenido textual de las conversaciones e intentar, no sólo obtener datos sino también deducir los sentimientos hacia la marca que anidan tras esas conversaciones.

  • Implicación del empleado: La experiencia de cliente se produce en gran medida a través de las interacciones con los empleados de la compañía. No sólo eso, todo el funcionamiento del día a día está en manos de los empleados. Por tanto, conseguir una experiencia de cliente superior, depende en buena medida de la actitud, implicación y cultura de orientación al cliente de los empleados. Es por tanto, fundamental, su profunda implicación.

  • Gestión emocional: En la interacción con el cliente deben integrarse elementos tanto racionales (productos, precios, conveniencia, etc) como los emocionales (afinidad, sorpresa, amabilidad, etc)

  • Innovación dinámica: Se trata de fomentar la co-creación, es decir, la innovación en la que colaboran los clientes. Esto es eficiente (al fin y al cabo, las ideas aportadas por los clientes son gratuitas) y al tiempo garantizan el alineamiento con las expectativas de esos clientes.
Cinco tendencias, casi cinco necesidades y, en algunos casos, cinco realidades, para conseguir una mejor experiencia de cliente. 

Tomamos nota.

viernes, 16 de junio de 2017

Ciencia de Datos con Field Cady

'The data science handbook' pretende dar una visión completa de las técnicas y tecnologías que incluye el campo del Data Science. La perspectiva es bastante técnica aunque cuidando la pedagogía, y poniendo mucho foco en todo lo relativo a la ingeniería de software, que tan frecuente es en la realización práctica del data science.

Los temas se tratan en niveles crecientes de profundidad o, más bien, de frecuencia de aplicación en el día a día de un científico de datos, desde las técnicas más básicas a aquella que sólo se encontrarán en nichos especializados o situaciones muy concretas.

Aunque este planteamiento puede tener su interés para quien lo utilice como libro de consulta, hace sin embargo, que, aunque cada tema se toca de forma pedagógica y creo que con acierto en su capítulo correspondiente, la organización de capítulos y su orden resulte un poco caótica y en la lectura da a veces la sensación de ir saltando de un tema a otro muy diferente sin mucha lógica.

En concreto, el libro se estructura en 25 capítulos agrupados en tres partes.

El primer capítulo 'Introduction: Becoming a unicorn' hace a modo de introducción y resalta la variedad de técnicas y tecnologías que un científico de datos debe conocer y usar.

A continuación, aborda la Parte I 'The stuff you'll always use' con las técnicas que todo científico de datos debe dominar. Se habla del tratamiento de los datos previos a su análisis, de la visualización de datos, de software y de documentación. También se introduce el machine learning siendo especialmente interesante el análisis de clasificadores. En esta parte se incluyen los siguientes capítulos:
  • 'The data science roadmap'
  • 'Programming languages'
  • 'Data munging: string manipulation, regular expressions and data cleaning'
  • 'Visualization and simple metrics'
  • 'Machine learning overview'
  • 'Interlude: feature exraction ideas'
  • 'Machine learning classification'
  • 'Technical communication and documentatios'
La segunda parte 'Stuff you still need to know', continua con técnicas de obligado conocimiento pero desde una perspectiva más avanzada. Se tratan en general aspectos bastante teóricos sobre probabilidad, estadística, algoritmos, series temporales, etc ilustrado, eso sí, con ejemplos y acompañado de algún capítulo más cercano como lo que tiene que ver con buenas prácticas de ingeniería software. Los capítulos que integran esta parte son:
  • 'Unsupervised learning: clustering and dimensionality reduction'
  • 'Regression'
  • 'Data encoding and file formats'
  • 'Big Data'
  • 'Databases'
  • 'Software engineering best practices'
  • 'Natural Language Processing'
  • 'Time series analysis'
  • 'Probability'
  • 'Statistics'
  • 'Programming language concepts'
  • 'Performance and computer memory'
La última parte 'Specialized or advanced topics' trata ya, como claramente se expresa en el título, los temas más avanzados o especializados. En este caso, sólo se incluyen cuatro capítulos, a saber:
  • 'Conputer memory and data structures'
  • 'Maximum likelihood estimation and optimization'
  • 'Advanced clasifiers'
  • 'Sthocastic modeling'
'The data science handbook' ofrece una perspectiva amplia y en cierto sentido multidisciplinar del campo de la ciencia de datos. El tratamiento es riguroso y basado en conocimiento práctico y, a pesar de lo arduo o especializado de algunos temas, el autor se esfuerza en hacerlo sencillo. No obstante, algunos temas son en sí mismos complejos y el libro no siempre es fácil de entender, no por defecto del autor, sino por la base que se precisa para entenderlo completamente.

Considero que Field Cady ha hecho un buen trabajo con este manual.

Field Cady

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn.)

Field Cady
Matemático computacional y aplicado, con especial foco en modelado estadístico y analítica "big data". Hizo investigación en ese campo durante sus estudios y actualmente continua en la misma linea en la industria más innovadora.

Ha realizado consultoría, con clientes que varían entre startups de Internet hasta grandes instituciones financieras, e incluso ha hecho incursiones en la gestión de un equipo de desarrollo hardware. Su foco ha sido siempre conectar conceptos y herramientas abstractas con los beneficios que pueden conseguir en el mundo real.

El énfasis teórico se apoya también en una extensa experiencia real en codificación.

Cady tiene un grado en Computer Science y entre sus logros se incluye el rediseño del módulo de interpolación de la popular librería SciPy, desarrollo de backend en Google y la realización de las APIs en Python y R para Allen Institute for Artificial Intelligence.

Ha escrito 'The Data Science Handkbook' y 'What is Math?', éste último autoeditado.

Puedes saber más acerca del autor visitando su perfil en LinkedIn o siguiéndole en twitter donde se identifica como @fieldcady.

miércoles, 14 de junio de 2017

Un decálogo para una mejor experiencia de cliente



He estado leyendo el informe que, bajo el título 'Transformando el negocio a través dela voz del cliente' ha realizado Deloitte Digital para la Asociación para el Desarrollo de la Experiencia de Cliente y que pone foco en los aspectos de operativización de esa experiencia. Gran parte del contenido del informe explica el método y los resultados, pero, cerca del final, nos ofrecen un decálogo para una experiencia de cliente operativa.

Estos son las diez propuestas que se nos hacen:
  • Facilita el feedback del cliente o 'pónselo fácil': proporcionando variedad de canales de interacción y escuchando al cliente ahí donde a él le gusta interactuar.

  • Combina transacción y relación: no empeñarse en finalizar ventas u otro tipo de transacciones, sino fomentar la relación.

  • Muéstrale que le conoces: Por ejemplo, no preguntar en encuestas por datos que ya debemos tener o utilizar su nombre propio si es apropiado, etc

  • Real-time: el feedback debe ser inmediato y la separación entre una interacción y una encuesta casi nula.

  • Distribuye la información por toda la organización: toda la organización debe conocer a los clientes y el impacto de su comportamiento en la percepción de esos clientes.

  • Mide KPIs cuantitativos pero enriquece con cualitativos: aparte de los KPIs más tradicionales, utilizar herramientas más abiertas de análisis de texto o sentimiento.

  • Equipo de cloppers: un equipo de personas que hablen con los clientes insatisfechos.

  • Utiliza el feedback: que el feedback recibido de los clientes sirva para algo, que guíe planes de mejora concretos.

  • Involucra a los empleados: hacer que toda la organización tenga presente a los clientes, que realmente la cultura sea de orientación a cliente.

  • Mide el impacto económico: medir el impacto de las acciones de mejora de la experiencia pero también el valor de los clientes en función de su satisfacción.
Nada muy sorprendente ¿verdad?

A ver si esto de la experiencia de cliente va a tener mucho que ver con la actitud y el sentido común...

lunes, 12 de junio de 2017

Una definición de realidad aumentada

 
La realidad aumentada es una tecnología, en realidad un conjunto coordinado de tecnologías, o mejor aún, un tipo de soluciones o aplicaciones, que se encuentran en crecimiento y que, aunque sin gozar de la propaganda asociada a otras tecnologías o soluciones como puedan ser Big Data o Inteligencia Artificial, sí parece situarse entre los elementos tecnológicos emergentes o crecientes y que nos puden conducir a disrupciones y transformaciones.

Voy a tratar la realidad aumentada en varios posts próximamente pero, quizá por ello, conviene pararse antes a disponer de una definición.

En su libro 'Understanding augmented reality', Alain B. Craig nos ofrece la siguiente:

A medium in which digital information is overlaid on the physical world that is in both spatial and temporal registration with the phisycal world and that is interactive in real time.

Hay algunos elementos que creo dentro de la definición a destacar o comentar.

En primer lugar, el autor habla de un medio (medium) e insiste mucho en este aspecto. La palabra elegida resulta algo extraña pero creo que en esencia, lo que nos quiere decir es que no se trata de una tecnología concreta sino de que hay muchas tecnologías implicadas y que pueden evolucionar sin que deje de ser realidad aumentada. 

Por supuesto, es esencial destacar que el hecho de que información digital se superpone al mundo físico, eso es la esencia de la realidad aumentada, pero me interesa mucho el aspecto que, con un término de nuevo algo extraño, el autor denomina como in registration. Intentando explicarlo, creo que en castellano puede ser mejor término el decir que está sincronizado. Tampoco es que el termino sincronizado sea del todo exacto pero la idea no es difícil de entender: en realidad aumentada, la información o realidades digitales, se deben encontrar plenamente integradas en el mundo físico, como si formasen parte de él. Si tenemos un jarrón digital encima de una mesa (ejemplo que propone el propio Craig), debe aparecer como justamente encima, apoyado, no flotando. Si se mueve la mesa, se debe mover el jarrón con ella. Eso sería el registro o sincronización espacial. La sincronización temporal es la misma idea pero aplicada al devenir temporal: si el jarrón se mueve con la mesa debe ser de forma simultánea, no después, es decir, debe comportarse como haría un jarrón físico.

El último punto de la definición, interesante porque se suele dar por entendido pero no se suele explicitar, es la interactividad, la capacidad del usuario para interactuar con la parte digital de esa realidad aumentada.

Creo que la definición que propone Alain B. Craig tiene la virtud de recoger, en una frase bastante corta, todos los significados y matices de la realidad aumentada. Así que es un buen comienzo.

viernes, 9 de junio de 2017

Soñar tecnología


  
Debe ser algo así como el efecto Pygmalion de la tecnología y la innovación.

Si entrevemos un área de desarrollo tecnológico y pensamos a lo grande...la tecnología surgirá. Eso es, al menos, lo que nos dice Alain B. Craig en su libro 'Understanding augmented reality' cuando, al inicio del mismo, afirma:

When we see the possibilities and dream big, the the technology required to enable it, will follow. If not, we will invent it.

Viene a ser, en efecto, la versión tecnológica e innovadora de la importancia de la fe y la confianza en aquello que queremos conseguir. La tecnología surgirá o la inventaremos. Ojalá sea cierto.

A soñar...

... y a trabajar...


miércoles, 7 de junio de 2017

¿Cuántos datos son Big Data?

 

Una de las características obvias del Big Data es que es eso, 'big', es decir, que maneja muchos datos.

Pero ¿cuántos datos son mucho datos? ¿Cuándo el manejo de muchos datos hace que hablemos de Big Data?

Eso mismo se pregunta Field Cady en su libro 'The Data Science Handbook'. La respuesta que propone no es estricta, pero sin embargo sí es muy clarificadora al respecto de la naturaleza de Big Data frente a otras tecnologías como Datawarehouse.

Esta es la respuesta de Cady:

it happens when it is no longer practical to store or process it all on a single computer.

Vale, eso no es una cantidad concreta. Es más, a medida que la capacidad computacional o de almacenamiento de los ordenadores crece, la respuesta puede ser, no sólo ambigua, sino también móvil, dinámica.

Sin embargo, para quien lo que se pregunte realmente sea qué es lo que diferencia desde un punto de vista técnico a Big Data de Datawarehouse, la respuesta es bastante valiosa. Porque uno de los aspectos tecnológicamente novedosos de Big Data, uno de los pocos aspectos tecnológicos diferenciales, creo, es ese procesamiento y almacenamiento distribuido usando algoritmos como el famoso MapReduce.

Así que, ya tenemos una idea de cuántos datos son Big Data. ¿O no?

lunes, 5 de junio de 2017

Clasificadores: el encuentro entre Data Science, Machine Learning y Redes Neuronales



Con frecuencia, cuando se ponen de moda, las fronteras entre diferentes tecnologías o simplemente técnicas se vuelve confusas. A veces porque realmente no son tan nítidas, a veces porque el ‘marketing tecnológico’ intencionadamente aplica incorrectamente términos de moda a tecnologías ya conocidas y menos ‘glamurosas’, a veces por pura confusión o ignorancia del que usa los términos.

Una de las zonas más borrosas hoy en día, al menos en mi percepción es la que separa a Data Science o Big Data de Machine Learning y a ésta de Deep Learning o Inteligencia artificial.

Quizá valga la pena dedicar tiempo y espacio a marcar todas esas fronteras pero, en este artículo, sólo voy a hablar de clasificadores y cómo se relacionan con algunos de esos términos. Y lo hago, motivado e inspirado por la descripción que en su libro ‘The Data Science Handbook’ hace Field Cady sobre los clasificadores, una descripción por un lado bastante simple y pedagógica pero que me parece rigurosa, basada en el conocimiento y que, personalmente, me ha permitido visualizar muy bien cierta relación entre Data Science, Machine Learning y Redes Neuronales.

Intentemos entender primero qué es un clasificador. Podemos decir que un clasificador es un algoritmo que, recibiendo como entrada cierta información de un objeto, es capaz indicar la categoría o clase a que pertenece de entre un número acotado de clases posibles. Por ejemplo, podemos leer una imagen que representa un número (como cuando se leen las matrículas de los coches en ciertos aparcamientos) y clasificarlo indicando de qué dígito se trata. O podemos recibir como entrada la imagen de un animal y decir si se trata de un gato, un perro o un loro. En algunas ocasiones, más que una clasificación, lo que proporciona es un valor numérico que indica la confianza que tenemos de que la entrada se corresponda con una cierta clasificación.

Field Cady nos dice que, en realidad, un clasificador, uno basado en Machine Learning, funciona en dos fases:
  • En una primera fase es entrenado, es decir, recibe una gran cantidad de datos de ejemplo y su clasificación correcta, de forma que se pueden ajustar los parámetros del algoritmo para un funcionamiento óptimo.

  • Cuando ya está entrenado es cuando ya funciona como describíamos más arriba: recibe unos datos de entrada y da la clasificación correspondiente como salida.
A continuación, Cady nos describe los siguientes clasificadores:
  • Árbol de decisión (‘Decision Tree’): simplemente una estructura donde en cada nodo se hace una pregunta y, en función de la respuesta, se sigue hacia un nodo u otro. La respuesta final es la categoría que andamos buscando.

  • Bosques aleatorios ('Random forest'): una colección de árboles de decisión entrenados cada uno con un subconjunto de los datos disponibles y que se ocupan sólo de un subconjunto de las características. La decisión final se toma como una media de las decisiones individuales de los árboles.

  • Grupo de Clasificadores (‘Ensemble Classifier’): Una generalización de los bosques aleatorios. Tomamos varios clasificadores (árboles de decisión o no), se entrenan bajo condiciones diferentes, y sus resultados se agregan de alguna forma. La idea subyacente es que cada clasificador en muy bueno en algo y los diferentes clasificadores son bastante independientes, de forma que se espera que la agregación sea una buena clasificación.

  • Máquinas de Vectores de Soporte (‘Support Vector Machines’): Se trata de un tipo de clasificadores que asumen que se puede establecer fronteras lineales en el espacio total de valores posibles de forma que, dependiendo de dónde se encuentre un conjunto de datos concreto, estará a alguno de los lados de la frontera, lo que lleva a su clasificación según el lado en que se encuentre. Asumen una separabilidad lineal (las fronteras vienen dadas por ecuaciones lineales).

  • Regresión Logística (‘Logistic regression’): Es como una versión no binaria de las Support Vector Machines. También suponen algún tipo de frontera pero lo que hacen es asignar probabilidades de una clasificación u otra según lo cerca o lejos que se encuentren de la frontera.

  • Regresión Lasso (‘Lasso Regression’): Una variante de la anterior, pero que tiende a eliminar las zonas de clasificación confusa.

  • Bayes ingénuo (‘Naive Bayes’): una aplicación simplificada de la estadística bayesiana en que, se parte de unos valores iniciales de confianza en una clasificación y, durante el entrenamiento se van ajustando

  • Redes Neuronales (‘Neural Nets’): en que un conjunto de nodos estructurados en capas, obtienen una salida en función de sus entradas y la aplicación de unos pesos. Estos pesos se ajustan durante el entrenamiento, y es la forma en que aprenden. Las redes neuronales son en general buenas cuando se trata de clasificar con base en muchas características.

Si se observa el listado anterior vemos que, en todos los casos, tenemos unos algoritmos que toman una serie de entradas y generan unas salidas, que son la clasificación. Y vemos que todos ellos ajustan de alguna forma sus parámetros mediante el aprendizaje basado en un amplio conjunto de ejemplos con sus entradas y su respuesta correcta. 

Todos son herramientas de Data Science (de análisis de datos) y en todos hay aprendizaje (machine learning).aunque el algoritmo específico pueda ser muy diferente.

Bajo esta perspectiva, desde un punto de vista externo, tratando todos los clasificadores como cajas negras,todos se comportan igual. Su algoritmo interno es diferente y sus resultados o mejores áreas de aplicación pueden variar, pero hacen lo mismo y tienen todos la capacidad (y la necesidad) de aprender. Y esto va desde algoritmos tan sencillos de entender como los árboles de clasificación como los más complejos y en cierto modo incomprensibles de una red neuronal.

La verdad es que, visto así, parece entenderse con más claridad la cercanía de conceptos, a priori bastante diferentes, y por qué no siempre las fronteras están claramente definidas. Si no eres muy especialista, o si sólo te importan los resultados y no cómo se llega a ellos, las cosas no son muy distintas.

Eso no justifica el que nos esforcemos en nombrar y entender cada tecnología por sí misma, pero hace más disculpable,mucho más disculpable. a aquel que no lo consigue.

Pero no dejemos de intentarlo, por favor.

Nosotros, no dejaremos de hacerlo.

viernes, 2 de junio de 2017

Dos avisos para navegantes tecnológicos



Un peligro del tecno-optimismo es dejarnos llevar por el entusiasmo y, sin rigor, análisis, ni crítica, dar por buena una tecnología simplemente porque está de moda, sin conocer bien sus características, su madurez, su campo de aplicación... o las tecnologías más maduras alternativas.

Dos de los campos más de moda hoy en día son Big Data e Inteligencia Artificial, y dentro del polifacético y politecnológico panorama de ésta última, el procesamiento del lenguaje natural.

Para dejarlo claro: personalmente soy optimista en lo que a la tecnología se refiere, creo que históricamente nos ha aportado muchísimo y que aún tiene más que aportar en el futuro. Y los dos campos mencionados son de los que me resultan más atractivos.

Sin embargo, también amo el rigor y el realismo, así que, sin decir que esté en lo cierto ni lo contrario, me parece interesante traer a colación dos advertencias que Field Cady hace en su libro 'The Data Science Handbook'. La primera es relativa a Big Data, respecto al la cual nos dice:

Big Data tools are almost always slower, harder to setup, and more finicky than their traditional counterparts.

La segunda es a propósito del procesamiento de lenguaje natural

NLP processing is generally very computationally inefficient.  

Ni afirmo ni desmiento que Field Cady esté en lo cierto, aunque a buen seguro tiene razones para hacer estas afirmaciones. 

Lo que sí es importante, es que nos puede abrir los ojos, nos puede recordar que 'no es oro todo lo que reluce' y, sobre todo, nos puede servir de acicate para tener siempre muy presente que, por brillante y atractiva que sea una tecnología, lo primero de todo es siempre el rigor y la responsabilidad en su aplicación.

miércoles, 31 de mayo de 2017

Una apología de la documentación del código



La documentación del código es una de esas tareas cuya realización resulta tediosa y suele evitarse pero que, a la larga, paga dividendos o, más bien, evita los costes de la no documentación.

Y en este caso la defensa de la documentación del código proviene no de un metodólogo o de un ingeniero de software, no al menos en un sentido tradicional, sino de Field Cady, un científico de datos quien, en su libro, 'The Data Science Handbook' afirma: 

Everybody who writes code is responsible for making sure that their code is clear.

No sólo una buena práctica, sino una responsabilidad. Documentar el código lo hace más legible no sólo para terceros (por ejemplo, otro desarrollador que deba evolucionarlo o encontrar un bug) sino para el mismo autor del código quien, probablemente, cuando hayan transcurrido unas semanas desde que lo realizó, también le cueste entender su propio código.

Documentar el código lo hace más mantenible y más evolucionable. Más barato, por tanto, aunque en una forma difícil de cuantificar.

La claridad, la legibilidad, no sólo del código, sino también de cualquier documento, mensaje, ayuda  o manual son atributos insoslayables. 

Más allá de una buena práctica, una responsabilidad...pocas veces asumida...

lunes, 29 de mayo de 2017

Las fases de un proyecto de Data Science



Aunque Data Science es una disciplina que puede aplicarse a todo tipo de campos, a todo tipo de sectores, negocios e investigaciones, lo cierto es que, dejando aparte las diferencias particulares dependientes del campo de aplicación y situaciones específicas, en sus líneas básicas, siguen una mecánica muy parecida, unas fases que parecen repetirse una y otra vez.

En su libro, ‘Data Science Handbook’, Field Cady nos habla de un Data Science Roadmap que, en el fondo, no es más que eso: identificar las etapas de un proyecto de Data Science habitual.

El autor habla de seis pasos, aunque en mi opinión, realmente sólo cinco son verdaderas fases. Serían éstas:

  • Establecer el marco del problema: entender la necesidad del negocio y definir claramente el problema. Aquí es donde es muy importante, como mencionábamos en un post anterior, definir claramente la pregunta o las preguntas de negocio a las que queremos dar respuesta. Es importante saber cómo sería una respuesta o resultado que considerásemos una solución. En el caso de proyectos complejos, puede ser necesario recoger las necesidades en un documento.

  • Entender los datos: Se trata de un análisis preliminar de los datos de que se dispone: su tamaño, su calidad, si son completos o parciales, si son representativos, si existen ‘outliers’ (datos atípicos), si existen identificadores y cuáles son. De forma resumida, es importante saber si se dispone de los datos necesarios para contestar a la pregunta o preguntas que definen el problema a resolver y, por tanto, el objetivo del proyecto. En esta fase, además, se transforman de su formato original a alguno otro más apto para su tratamiento mediante herramientas de análisis. Luego vendría un análisis exploratorio, observarlos, probablemente graficarlos desde diferentes perspectivas...

  • Extraer características: En cierto modo, es una continuación de la fase anterior y puede tener un cierto solape. Se trata de extraer números o categorías que caractericen los datos. Además, y como resultado, se transforman esos datos a formatos tabulares aptos para su tratamiento.

  • Modelar y analizar: Se realizan las clasificaciones, se aplican modelos, tal vez machine learning. Aunque esta fase parece el núcleo del trabajo, el autor nos advierte que puede ser bastante sencillo porque, al fin y al cabo, existen ya muchos modelos pre-construidos, y potentes herramientas que hacen fácil su aplicación. Con frecuencia, se aplican varios modelos para examinar los datos desde diferentes perspectivas.

  • Presentar los resultados: sin duda la parte menos técnica de todo el trabajo...pero puede que la más importante, porque es a través de la cual conseguimos (o no) que el negocio, los 'stakeholders' que encargaron el trabajo, reciban sus respuestas y puedan decidir con base en ellas.
Roadmap propuesto por Field Cady


Para ser correctos, Field Cady añade otra sexta etapa: entregar el código. Recordemos que para Cady, un hecho diferencial del científico de datos frente a un estadístico, es que utilizaba técnicas de ingeniería de software de forma intensiva en su trabajo. Sin embargo, en mi opinión, y sin despreciar en absoluto la importancia del software como entregable, creo que desde un punto de vista metodológico no tiene la categoría de fase sino, más bien, de entregable, de subproducto, por valioso que pueda ser.

Y estas son las fases. Unas fases que, he podido ver en otras fuentes descritas de forma parecida, así que creo constituyen un buen marco de referencia.

viernes, 26 de mayo de 2017

Mi Actividad: Webinar "Poner en marcha tu transformación digital"



En la tarde de hoy Viernes, 26 de Mayo, imparto un Webinar que he titulado "Poner en marcha tu transformación digital"

El Webinar, de una hora de duración, está dirigido a los socios del Observatorio eCommerce & Transformación Digital.

Las ideas que pretendo explicar o transmitir son:
  • Las causas profundas del poder disruptivo de lo digital
  • Resumen de las principales realidades y tendencias digitales
  • ¿Qué es realmente eso de la Transformación Digital? Mi definición
  • Formas que puede adoptar una transformación digital
  • Selección de iniciativas de transformación para tu empresa
  • Gestión de la transformación basada Dirección de Proyectos

Si eres socio del Observatorio eCommerce & Transformación Digital y te interesa el tema, no tienes más que unirte o visualizarlo luego en diferido. Si no... puedes asociarte. Y si tampoco... bueno, siempre puedes encontrar mis ideas desperdigadas por este blog... o tal vez en el futuro podamos encontrar otras vías... :)

miércoles, 24 de mayo de 2017

Una curiosa definición de Data Science



El 'Data Science' (la ciencia de los datos) es una de esas disciplinas emergentes, de las que se habla mucho, no se conoce tanto, y donde se mezcla la realidad, la confusión y la propaganda.

No siempre queda clara su frontera con la estadística, o con el Big Data, el machine learning e, incluso, a veces, ni siquiera con la inteligencia artificial.

En las primeras líneas de su libro 'The Data Science Handkook', Field Cady nos da la siguiente definición de Data Science:  

Data Science means doing analytics work that, for one reason or another, requieres a substantial amount of software engineering.

Una definición que me resulta llamativa, aunque puede que sea acertada. Lo cierto es que Cady no se eleva mucho a los tópicos o al 'hype'. Explica abiertamente que lo que hace un científico de datos es un trabajo analítico sobre datos. Simple y claro.

Ahora bien, ¿en qué se diferencia entonces de un estadístico? Pues en el uso frecuente, casi obligatorio, de la ingeniería del software, de la programación como herramienta fundamental de ayuda a su trabajo.

No parece una distinción conceptualmente fuerte, aunque puede que sea realista en la práctica. Lo cierto es que cuando explica un poco más el detalle técnico se ve que en la concepción de Cady, el científico de datos 'invade' también ligeramente el campo de la inteligencia artificial (usa redes neuronales como clasificador, por ejemplo)

Lo cierto es que el autor parece darse cuenta de que la diferencia no es profunda y que por tanto es coyuntural. De hecho, poco más adelante, expresa esta opinión:

In 20 years I suspect that statistics, data science and machine learning will blur into a single discipline.

Acertada o no, también parece una predicción realista, con los pies asentados en el suelo y más allá de los mitos.

Quizá la definición de Data Science de Field Cady no sea muy académica, pero, desde luego, su realismo y honestidad resultan clarificadoras y de agradecer.

lunes, 22 de mayo de 2017

Data Science y la pregunta adecuada



Establecer claramente objetivos es muy importante. Tener clara una estrategia es fundamental.

Es una verdad válida para cualquier acción de una cierta ambición que emprendamos. Es importante para un cambio estratégico, para un proyecto clave o para una transformación digital.

Y también es importante para un trabajo en Data Science. Sólo que, cuando hablamos de Data Science, los objetivos se establecen en forma de preguntas.Vamos a bucear en datos, vamos aplicar técnicas estadísticas y machine learning pero ¿para qué?

Pues, simplemente, para contestar a una pregunta o un conjunto de preguntas que tienen sentido en el ámbito de negocio o de gestión que corresponda.

En efecto, en esa línea y al principio de su libro 'The data science handbook', Field Cady nos dice

The difference between great and mediocre data science is not about math or engineering: it is about asking the right question.

Hace unos meses, publicaba en este blog el libro 'Executive Data Science' de Brian Caffo, Roger D. Peng y Jeffrey T. Leek. En ese libro, y en el curso que realicé en Coursera y al que correspondía esa obra, se insistía también en la misma idea: la importancia de formular las preguntas adecuadas.

Si lo dicen dos autoridades y dos libros debe ser cierto ¿no?.

Lo principal para iniciar un trabajo de Data Science es saber las preguntas a que queremos contestar con el análisis.

Y, por extensión, lo principal para iniciar un gran proyecto o transformación es tener claros los objetivos.

viernes, 19 de mayo de 2017

Lo que hay que saber de Inteligencia Artificial con Jerry Kaplan

'Artificial Intelligence. What everyone needs to know' es una revisión breve y multidisciplinar del campo de la inteligencia artificial y su situación actual, una revisión que, a pesar de su necesaria brevedad y falta de profundidad, me ha parecido a pesar de todo rigurosa, seria e interesante, aunque abre más vías de investigación, aprendizaje y análisis de las que cierra.

El libro se estructura en ocho capítulos:

  • 'Defining Artificial Intelligence' aborda la nada difícil labor de definir lo que es inteligencia artificial. Comienza por la definición de John McCarthy en 1955 para luego analizar lo que es inteligencia y proponer una definición propia

  • 'The Intellectual History of Artificial Intelligence' Repasa la historia de la inteligencia artificial, comenzando por la famosa conferencia de Darmouth, y pasando revista a la lógica simbólica o los sistemas expertos, para acabar con las redes neuronales y el machine learning. Luego compara el razonamiento simbólico con el machine learning. Finaliza resumiendo los hitos más importantes en el avance de la inteligencia artificial.

  • 'Frontiers of Artifical Intelligence' en que nos habla de robótica, visión artificial, reconocimiento del habla y procesamiento de lenguaje natural.

  • 'Philosophy of Artifical Intelligence' Cambia un poco de tercio para empezar a considerar la Inteligencia artificial desde otros puntos de vista, empezando por el filosófico. Comienza por abordar la distinción entre la inteligenia artificial fuerte (las máquinas tienen mente) y la débil (las máquinas realmente simulan un comportamiento inteligente). Se pregunta si las máquinas pueden realmente pensar y qué pasa con el libre albedrío, la conciencia o el sentimiento.

  • 'Artificial Intelligence and the Law' revisa el campo de la Inteligencia Artificial en relación con la ley, tanto en lo relativo a la ayuda que puesta prestar a abogados como a la eventual necesidad de una legislación específica para la computación, y se atreve a adentrarse en asuntos espinosos como si un programa puede tomar parte en contratos y acuerdos, si se puede restringir la capacidad de actuación de un agente inteligente o si las personas deben ser responsables de lo que en su nombre hacen los agentes inteligentes, si un programa puede cometer un crimen o si un agente inteligente debe obedecer la ley y ser responsable de sus actos.

  • 'The Impact of Artificial Intelligence on Human Labor' Comienza con el traído y llevado debate acerca de si los robots eliminarán trabajos. Luego examina qué tipos de trabajo es previsible que se automaticen mediante inteligencia artificial.

  • 'The Impact of Artificial Intelligence on Social Equity' Examina brevemente el concepto de una sociedad basada en el trabajo frente a alternativas que pudieran surgir a partir de la generalización de la inteligencia artificial y la robótica, y la mejor forma de distribuir los activos

  • 'Possible Future Impacts of Artificial Intelligence' Explora el futuro con especial foco en lo que se conoce como 'la singularidad', el momento en que las máquinas sean más inteligentes que sus creadores y escapen a su control. También explora posibilidades tan asombrosas y escalofriantes como que podamos subir nuestra mente a una máquina, igual que hacemos con programas o datos y hasta qué punto se mantendría nuestra identidad en ese caso.
'Artificial Intelligence. What everyone needs to know' es un libro que, aunque no tiene la oportunidad de profundizar, plantea de una forma ordenada, rigurosa e interesante, los diferentes puntos de vistas desde los que podemos contemplar la inteligencia artificial. Ayuda a estructurar este algo difuso campo de conocimiento y a entender en qué punto estamos, no específicamente desde un punto de vista técnico sino global.

Buen libro.

Jerry Kaplan

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en Big Think)

Jerry Kaplan
Jerry Kaplan es ampliamente conocido en la industria de la computación como un emprendedor en serie, inventor, científico y autor. Actualmente es miembro del The Stanford Center for Legal Informatics. Además enseña Filosofía, Ética e Impacto de la Inteligencia Artificial en el Computer Science Department de la Stanford University.

Kaplan ha sido co-fundador de varias empresas incluyendo Winster.com (juegos sociales), Onsale.com (subastas en línea), GO Corporation (tablets) y Teknowledge (sistemas expertos). Escribió una exitosa novela de no ficción titulada 'Startup: A Silicon Valley Adventure', seleccionada por Business Week como una de los diez mejores libros del año. Entre sus últimos libros se encuentra 'Humans Need Not Apply' (traducido al español como 'Abstenerse humanos').

Kaplan ha co-inventado numerosos productos incluyendo Synergy (el primer teclado instrumental completamente digital y usado para la banda sonora de la película TRON), Lotus Agenda (el primer gestor de información personal), PenPoint (sistema operativo de tablet utilizado en el primer smartphone de AT&T; EO 440), el ordenador GO (primera tablet), y Straight Talk (primer sistema de consultas en lenguaje natural de Symantec). También es co-inventor de las subastas online (patentes ahora propiedad de eBay) y es citado en 12 patentes norteamericanas.

Ha publicado numerosos artículos y ha sido referenciado en numerosas revistas incluyendo Artificial Intelligence, Communications of the ACM, Computer Music Journal, The American Journal of Computational Linguistics y ACM Transactions on Database Systems.

Kaplan ha sido premiado con el Ernst & Young Entrepreneur of the Year en 1998, ha servido como miembro del Governor’s Electronic Commerce Advisory Council bajo el mandato de Pete Wilson, Gobernador de California. Ha recibido un Doctorado Honorario en Administración de Empresas por California International Business University, San Diego, California (2004).

Su perfil aparece en The New York Times, The Wall Street Journal, Forbes, Business Week, Red Herring y Upside y es un conferenciante habitual.

Puedes saber más acerca del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @Jerry_Kaplan.

miércoles, 17 de mayo de 2017

Affective computing: las emociones impostadas



Los sentimientos, puede que la última frontera para que la inteligencia artificial se pueda considerar humana.

Y si embargo, incluso en ese campo ya hay avances. 

Siguiendo un poco la filosofía del ya casi venerable test de Turing, una disciplina de la computación, la computación afectiva (affective computing) intenta, al menos, conseguir comportamientos externos que reconozcan y simulen emociones y afectividad.

Así nos lo descubre Jerry Kaplan en su libro 'Artificial Intelligence. What everyone needs to know' quien nos dice: 

Regardless of wether machines can actually have feelings, it's certainly possible to create devices that convincingly express emotions. An entire subfield of computer science -affective computing- aims to both recognise and generate human affects.


No nos confundamos. Se trata de una afectividad impostada, que simula unas emociones. No podemos afirmar que una máquina realmente sienta. En realidad, hasta nos resultaría complicado explicar qué es realmente sentir para un humano.

Pero dado que, incluso en nuestra relación con otros humanos, lo que percibimos en sólo la manifestación externa de la emoción, incapaces de conocer sólo la naturaleza íntima de las propias vivencias, una máquina que fuese maestra en impostar afectividad, en demostrar externamente emociones, hasta qué punto no nos sería creíble, amable y casi, casi humana? 

Cada vez más nos acercamos a fronteras...

¿Qué habrá más allá?

lunes, 15 de mayo de 2017

La tecnología y el tiempo



Se dice que el tiempo todo lo cura.

Y nos referimos con ello heridas de carácter fundamentalmente emocional. Pero ese efecto curativo o atenuador que caracteriza al paso del tiempo parece aplicarse a otras situaciones... y una de ellas es la consideración sobre las tecnologías, por novedosas y disruptivas que éstas nos parezcan. 

Aunque las nuevas tecnologías nos causan asombro y admiración, aunque en ocasiones también nos asustan y hacen temer un futuro distópico y quizá catastrófico, lo cierto es que nos acostumbramos a ellas, las asimilamos en nuestra forma de vivir y pensar y acabamos por no concederles la más mínima importancia.

Así ha ocurrido en el pasado desde innovaciones tan antiguas como la rueda, el fuego, la agricultura o la imprenta, hasta otras más modernas como la electricidad o el agua corriente y acabando en las más cercanas en el tiempo como la televisión, Internet, la informática o los smartphones.

A todo ello nos acostumbramos e, incluso, las nuevas generaciones que no han conocido otra cosa, lo pueden dar por supuesto.


Technologies that are sometimes greeted with concern and alarm by those living during their introduction are often accepted as commonplace and unremarkable by future generations.

Y si eso ha ocurrido en el pasado, no parecemos a estar autorizados para pensar que algo diferente va a ocurrir en el futuro. 

Y si eso es así, tecnologías que nos pueden asustar, la inteligencia artificial que podría llegar a crear máquinas de pensamiento autónomo, los robots que nos podrían dejar sin empleo, o la edición genómica que nos cuestiona desde un punto de vista ético...

El futuro no está escrito, pero si hacemos caso de la experiencia del pasado, no debemos temer a las nuevas tecnologías, por disruptivas que éstas sean, por más miedo que nos produzcan...

viernes, 12 de mayo de 2017

Conocer la Nanotecnología con Ben Rogers, Jesse Adams y Sumita Pennathur

'Nanotechnology: The whole story' es una delicia científica, un libro a medio camino entre el libro de texto y la divulgación científica sobre el mundo de la nanotecnología. Un libro que explica e ilustra muy bien los fundamentos de esta disciplina, a pesar de lo cual es de un nivel es medio/alto y considero necesario por un lado una base física que no está al alcance de todos, y por otra parte un estudio detenido si se quiere aprovechar completamente todo el contenido de la obra.

A pesar del 'sufijo' tecnología con que finaliza el nombre de nanotecnología, lo cierto es que es mucho más un libro de física, y por tanto de fundamentos científicos, que un libro de ingeniería y de aplicaciones o soluciones específicas, aunque algunas sí que se mencionan. Probablemente ello sea debido, no sólo al origen de los autores (ligados a la Universidad de Nevada) sino también proque ese es realmente el punto en que se encuentra hoy en día esta disciplina tan interesante como prometedora.

El libro se estructura en once capítulos:
  • 'Big Picture of a Small World' Sirve a modo de introducción y nos habla del átomo y de alguna de las mayores aportaciones a su comprensión como las de Demócrito, Richard Smalley, Rutherford, Bohr, Einstein o Richard Feynmann

  • 'Introduction to Miniaturization' explica algunas de las ventajas de trabajar a muy pequeña escala pero también nos avanza algunas de las muy notables diferencias que nos encontramos frente a una física tradicional al trabajar en escalas nanométricas.

  • 'Introduction to Nanoscale Physics' profundiza más en esa física de la nanoescala, repasa los fundamentos de la mecánica cuántica, de las ondas electromagnéticas o del efecto fotoeléctrico.

  • 'Nanomaterials' donde empieza a acercarse las áreas de aplicación. Primero dedica un amplio espacio a repasar los conceptos del enlace químico y de las fuerzas de Van Der Waals para a continuación estudiar algunos materiales y estructuras destacando los nanotubos de carbono.

  • 'Nanomechanics' Empieza repasando algunos conceptos físicos como velocidad, aceleración y fuerza o frecuencia de resonancia para a continuación estudiar fenómenos a nivel nano como osciladores, rayos, fonones, sensores de masa nanométricos, memorias nanometricas, microscopios, etc

  • 'Nanoelectronics' De nuevo, comienza repasando fundamentos físicos como las bandas de energía electrónicas, el comportamiento en conductores, aislantes y semiconductores o la energía de Fermi para luego ver cómo se puede aplicar a escala nanométrica para conseguir, por ejemplo, transistores de un solo electrón (SET), interruptores moleculares o memorias de almacenamiento.

  • 'Nanoscale Heat Transfer' Salta ahora al campo del calor y, tras repasar conceptos como la constante de Boltzmann o la conductividad de calor, pasa a estudiar los fenómenos de conductividad de calor en escala nano y nos habla de una mejor conversión de la energía en el caso de la termoelectricidad, o de aspectos relevantes en convección y radiación.

  • 'Nanophotonics' que estudia la interacción a escala nanométrica de fotones y materiales. Nos habla de la absorción de fotones, de su emisión, de la dispersión, de la permitividad y luego habla de aplicaciones como el uso de partículas de oro o plata para cambiar colores, el ajuste de la banda de gap en semiconductores, láseres, luz,microscopios, etc

  • 'Nanoscale Fluid Mechanics' Pasamos ahora a una mecánica de fluidos a escala nano. Primero nos habla del concepto de 'Continuo' y nos recuerda las ecuaciones de 'Navier-Stokes' o el número de Reynolds para ver cómo eso se traduce en escala nano en fenómenos como la electroósmosis o la electroforesis. Finaliza con un rapidísimo repaso a las aplicaciones de estas ideas.

  • 'Nanobiotechnology' Comienza hablando de las células vivas, de su funcionamiento y cómo eso ocurre a escala nanométrica y las implicaciones que ello supone, como el hecho de que la gravedad y la inercia sean muy poco representativas a esa escala. Nos habla de azúcares, ácidos grasos, nucleótidos y aminoácidos para luego recorrer la estructura del ADN, el ATP, y la codificación de la información genética. Finaliza explorando algunas aplicaciones como nanoestructuras biomiméticas o motores moleculares

  • 'Nanomedicine' Primero explica lo que es la nanomedicina. Luego nos habla de las nanopartículas, el uso de la nanomedicina en la lucha contra el cáncer o de la biomimesis, pero también nos alerta de la potencial toxicidad de estas soluciones, del posible impacto medioambiental y de sus implicaciones éticas
'Nanotechnology: The whole story', es una obra quizá no tan sencilla como sus autores seguramente pretendieron pero, aún así, didáctica y absolutamente apasionante. Probablemente se merezca una segunda lectura...

Ben Rogers

(Fuente: Traducción y ligera elaboración propia de la biografía en su Página personal)

Ben Rogers
Nació en 1977 y vive en Reno, Nevada, con su mujer y dos hijas. Su primera novela 'The flamer' se publicó en 2012. Sus obras han aparecido en una multiplicidad de publicaciones literarias y ganó una beca Nevada Arts Council Fellowship y una subvención Sierra Arts Foundation.

Es el autor líder de 'Nanotechnology: Understanding Small Systems' el primer libro de texto sobre nanotecnología, actualmente en su tercera edición, y también 'Nanotechnology: The Whole Story' un libro para amplia audiencia.

Estudió ingeniería y periodismo y tiene un master en ingeniería mecánica. Ha trabajado como analista de negocio, reportero, profesor y científico en varios laboratorios, incluyendo el Oak Ridge National Laboratory y el Jet Propulsion Laboratory de la NASA.

Desde 2004 ha sido el Ingeniero Jefe en Nevada Nanotech Systems.

Jesse Adams

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en CRC Press)

Jesse Adams
Cofundador de 3 startups y coautor de dos libros, actualmente sirve como miembro del consejo, Vicepresidente y CTO de Nevadano, así como miembro gestor de Nanolabz and Nanojems.

Jesse tiene un grado de ingeniería mecánica con optativa en negocio, por la Universidad de Nevada en Reno. Se graduó Summa Cum Laude y recibió también el premio outstanding mechanical engineering senior. Tras obtener una beca para graduados, Jesse se fue a la Universidad de Stanford, donde recibió un Máster de Ciencia en Mecatrónica. Sus intereses investigadores le condujeron a perseguir un doctorado en nanotecnología trabajando con el coinventor del microscopio de fuerza atómica, Calvin Quate. Desarrollo un AFM muti-sonda de alta velocidad, para lo que fue preciso un intenso trabajo en las cámara limpias de Stanford para fabricar las sondas activas. Durante su estancia en Stanford, Jesse participó en un comité para el rector, por aquel entonces Condolezza Rice, para explorar y hacer recomendaciones sobre soluciones de alojamiento de emergencia para graduados. También sirvió durante dos trimestres como director asociado del muy respetado colegio de estudiantes de segundo año de Stanford.

Siendo profesor ayudante en la universidad de Nevada en Reno, Jesse desarrolló una microplataforma en voladizo autosensible en investigación para la detección de explosivos, detección de vapores químicos, y detección de agua de calidad. Además, Jesse hizo investigación sobre objetivos de láseres físicos y desarrolló un nuevo curso sobre nanotecnología que formaba a los estudiantes en un entendimiento amplio de la materia.

Jesse es co-autor del primer libro de texto en su clase clase 'Nanotechnology: Understanding Small Systems' así como más de 20 artículos técnicos. Tiene múltiples patentes y patentes pendientes, ha dictado numerosas charlas invitadas sobre microscopía con sondas de escaneo y detección química con microvoladizos y ganó un premio regional y nacional de speaking, así como un premio nacional de diseño, un premio de innovación universitaria y elScientific American 50 award de 2004 en la categoría de defensa.

Sumita Pennathur

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en CRC Press)

Sumita Pennathur
Actualmente, profesora asociada de ingeniería mecánica en la Universidad de California en Santa Bárbara, habiendo obtenido un grado en el MIT y un doctorado en la Universidad de Stanford. Ha sido una contribuyente activa en los campos de la nanofluídica y sistemas nanoelectromecánicos (NEMS), y fue premiada tanto con Presidential Early Career Award for Science and Engineering (PECASE) en 2011, como un DARPA Young Faculty Award en 2008.

Ficha técnica:

AUTOR: Ben Rogers, Jesse Adams y Sumita Pennathur
EDITORIAL: CRC Press
AÑO: 2013
ISBN:  978-1439897805
PAGINAS: 395