viernes, 30 de junio de 2017

Diez pasos para aplicar realidad aumentada


La realidad aumentada, como todas las soluciones tecnológicas, adquieren pleno sentido cuando son eso, soluciones, es decir, cuando ayudan a resolver un problema.

Finalizando ya su libro 'Understanding augmented reality', Alan B. Craig nos ofrece un decálogo para aplicar realidad aumentada a la resolución de problemas. Estos son sus diez pasos:

  • Identificar el problema

  • Determinar si existen otras soluciones al problema

  • Determinar las capacidades de la realidad aumentada que ayudarían a resolver el problema

  • Diseñar la aplicación de realidad aumentada

  • Implementar la aplicación de realidad aumentada

  • Probar la aplicación de realidad aumentada

  • Evaluar los resultados de la aplicación con respecto al problema

  • Modificar el diseño y la aplicación

  • Probar la aplicación modificada

  • Repetir iterativamente desde el paso que corresponda

No sorprende mucho ¿verdad? Quizá tampoco aporte en exceso. No deja de ser puro sentido común y el hecho de aplicarlo a realidad aumentada es casi accidental.

Es bueno, no obstante, que las tecnologías están fundamentalmente para ofrecer soluciones, y recordar, aunque sea apelando al sentido común, cómo hacer eso...

miércoles, 28 de junio de 2017

La importancia del contenido en realidad aumentada


La tecnología, con todo y lo apasionante y cautivadora que resulta, no es más que un medio para la mayor parte de nosotros, para todos menos para el reducido conjunto de profesionales que desarrolla productos tecnológicos o realiza investigación y desarrollo.

La tecnología, superado su innegable embrujo, debe ser portadora de algo para que tenga sentido, debe servir a un fin, para que sirva de algo.

En el caso de la realidad aumentada, ese algo es el mensaje, un mensaje que puede ser información, por ejemplo en el caso de las aplicaciones quizá más profesionales, o un mensaje que puede ser una historia, en el caso de aplicaciones más lúdicas.

Y para el usuario, al final, eso es lo que importa. Y, por tanto, el mensaje tiene que ser bueno por derecho propio, independientemente de la tecnología que lo soporta.

Así nos lo recuerda Alan B. Craig en su libro 'Understanding augmented reality' cuando nos dice:

If Augmented Reality is used to tell a story the story must be good without Augmented Reality. If Augmented Reality is used to convey information, the information must be good in its own right.

Así que, al igual que se dice, por ejemplo, en storytelling o en periodismo 'contemos una buena historia', la misma receta se aplica a la realidad aumentada: contemos una buena historia, proporcionemos una buena información...

lunes, 26 de junio de 2017

Sensores para realidad aumentada


Ya comentábamos en el post anterior que Alan B. Craig es muy ordenado en su libro 'Understanding augmented reality'. En efecto, tiende a clasificar y enumerar todas las posibilidades dentro de las tecnologías o soluciones que componen la realidad aumentada.

Y eso nos viene muy bien para poner en orden nuestras propias ideas. Si en el artículo anterior veíamos los tres componentes básicos, sensores, procesador y monitor, vamos ahora, siguiendo el camino que nos traza el autor, a repasar los primeros, los sensores.

¿Qué sensores se utilizan, pues, en realidad aumentada?

Pues esta es la clasificación que nos propone Craig:
  • Sensores usados para trazado (tracking): se encargan de conocer la posición del mundo real, de los usuarios y cualquier dispositivo de la solución. De esta forma se puede conseguir esa sincronización o registro entre mundo real y virtual que comentamos al dar la definición de realidad aumentada. A su vez, estos sensores los clasifica en:

    • Cámara (visión por ordenador): quizá una de las tecnologías más importantes. Craig, sin embargo, más que explicar la tecnología alrededor de la visión por computador en lo que se centra es en los 'fiducial markers', es decir, marcas en el entorno que permiten al sistema de visión y a la solución en su conjunto, no sólo observar lo que existe y su movimiento sino también situarlo espacialmente.

    • Posicionamiento (GPS): una tecnología no muy específica de la realidad aumentada pero que también sirve en ocasiones para el posicionamiento espacial grosero.

    • Giróscopos, acelerómetros, brújulas y otros: otro tipo de sensores que permiten apreciar la orientación (giróscopos), dirección (brújulas) y aceleración (acelerómetros). Muchos de estos sensores vienen ya incorporados, por ejemplo, en móviles y tablets.

  • Sensores para recoger información del ambiente: el tipo de información que recogen puede incluir humedad, temperatura y otra información atmosférica. Otro tipo de informaciones posibles son, por ejemplo, el pH, tensión eléctrica, radiofrecuencia, etc

  • Sensores para recoger entradas del usuario: en este apartado se incluyen dispositivos bastante comunes como botones, pantallas táctiles, teclados, etc.

Se trata, como vemos, de una clasificación sencilla, fácil de entender y recordar, y que nos da una idea de que se juntan desde sensores muy, muy comunes como los teclados o el GPS) con otros más especializados (como, por ejemplo, la visión por computador).

Con esto hemos repasado rápidamente la tipología de sensores utilizados en realidad aumentada.

Aprovechándonos del rigor y orden de Alain B. Craig, veremos también algo, en futuros artículos,  sobre los otros elementos de las soluciones de realidad aumentada.

viernes, 23 de junio de 2017

Los tres elementos nucleares de una solución de realidad aumentada


Si algo caracteriza el libro 'Understanding augmented reality' de Alan B. Craig es su orden y estructura. Trata todo lo relativo a la realidad aumentada en dos pasos: primera identifica los elementos que componen lo que quiere explicar y luego repasa, uno a uno, sus características técnicas, funcionales o lo que sea menester.

Y empieza en esa línea ya desde el principio cuando nos identifica los tres elementos nucleares de una solución aumentada. Son éstos:

  • Sensores: que permiten conocer el estado del mundo real en que se enmarca la solución.

  • Un procesador: que evalúa la información recibida de los sensores y 'genera' la realidad digital que lo acompaña y cómo se comporta

  • Un monitor: que muestra al usuario esa realidad aumentada que combina el mundo real y el virtual/digital.

Un esquema sencillo y fácil de entender (aunque luego sensores, procesadores y monitores puedan hacer uso de tecnologías complejas u difíciles). Un esquema que, por otra parte, es muy común a muchas soluciones digitales que interactuan con el mundo físico real, no sólo con el usuario humano.

Seguramente escriba próximamente en este blog sobre ese patrón de las soluciones digitales que interactúan con el mundo físico. De momento, los tres componentes nucleares que expone Craig nos sirven para estructurar nuestras ideas y algunos contenidos que vendrán.

miércoles, 21 de junio de 2017

¿Por qué realidad aumentada en lugar de física?


¿Por qué realidad aumentada? ¿Por qué enriquecer nuestra realidad física con elementos digitales en lugar de con otros elementos físicos?

Esa pregunta se la formula Alan B. Craig en las primeras páginas de su libro 'Understanding augmented reality'. Y ésta es su respuesta:

When artifacts are made of physical materials, it requires significant effort and time to make alterations, specially when those alterations are significant.

Así de simple, pero así de importante: aumentamos la realidad física con una realidad digital porque esta última es infinitamente más moldeable, rápida y barata que la realidad física.

Y digo que es muy importante porque no se trata sólo de realidad aumentada. Se trata de la esencia de lo digital y por qué lo digital es tan disruptivo.

En cursos que he impartido recientemente sobre transformación digital, en el momento de explicar a los alumnos por qué lo digital es disruptivo, les cuento cinco características que explican esa disrupción y dos están implícitas en la explicación que Alan B. Craig propone para explicar el porqué de la realidad aumentada: la moldeabilidad (programabilidad) y el precio (coste marginal cero).

La realidad aumentada es sólo, en ese sentido, una manifestación más de la disrupción.

lunes, 19 de junio de 2017

Cinco tendencias en experiencia de cliente




Ahora, y siguiendo esa misma fuente, vemos las cinco tendencias que identifica el informe en ese mismo campo de la experiencia de cliente.

Son estas:
  • Escucha social: Se trata de monitorizar y analizar las conversaciones acerca de la propia marca que se producen en los medios sociales e intentar obtener conclusiones y definir acciones.

  • Análisis de sentimiento: Muy relacionado con el anterior se trata de analizar el contenido textual de las conversaciones e intentar, no sólo obtener datos sino también deducir los sentimientos hacia la marca que anidan tras esas conversaciones.

  • Implicación del empleado: La experiencia de cliente se produce en gran medida a través de las interacciones con los empleados de la compañía. No sólo eso, todo el funcionamiento del día a día está en manos de los empleados. Por tanto, conseguir una experiencia de cliente superior, depende en buena medida de la actitud, implicación y cultura de orientación al cliente de los empleados. Es por tanto, fundamental, su profunda implicación.

  • Gestión emocional: En la interacción con el cliente deben integrarse elementos tanto racionales (productos, precios, conveniencia, etc) como los emocionales (afinidad, sorpresa, amabilidad, etc)

  • Innovación dinámica: Se trata de fomentar la co-creación, es decir, la innovación en la que colaboran los clientes. Esto es eficiente (al fin y al cabo, las ideas aportadas por los clientes son gratuitas) y al tiempo garantizan el alineamiento con las expectativas de esos clientes.
Cinco tendencias, casi cinco necesidades y, en algunos casos, cinco realidades, para conseguir una mejor experiencia de cliente. 

Tomamos nota.

viernes, 16 de junio de 2017

Ciencia de Datos con Field Cady

'The data science handbook' pretende dar una visión completa de las técnicas y tecnologías que incluye el campo del Data Science. La perspectiva es bastante técnica aunque cuidando la pedagogía, y poniendo mucho foco en todo lo relativo a la ingeniería de software, que tan frecuente es en la realización práctica del data science.

Los temas se tratan en niveles crecientes de profundidad o, más bien, de frecuencia de aplicación en el día a día de un científico de datos, desde las técnicas más básicas a aquella que sólo se encontrarán en nichos especializados o situaciones muy concretas.

Aunque este planteamiento puede tener su interés para quien lo utilice como libro de consulta, hace sin embargo, que, aunque cada tema se toca de forma pedagógica y creo que con acierto en su capítulo correspondiente, la organización de capítulos y su orden resulte un poco caótica y en la lectura da a veces la sensación de ir saltando de un tema a otro muy diferente sin mucha lógica.

En concreto, el libro se estructura en 25 capítulos agrupados en tres partes.

El primer capítulo 'Introduction: Becoming a unicorn' hace a modo de introducción y resalta la variedad de técnicas y tecnologías que un científico de datos debe conocer y usar.

A continuación, aborda la Parte I 'The stuff you'll always use' con las técnicas que todo científico de datos debe dominar. Se habla del tratamiento de los datos previos a su análisis, de la visualización de datos, de software y de documentación. También se introduce el machine learning siendo especialmente interesante el análisis de clasificadores. En esta parte se incluyen los siguientes capítulos:
  • 'The data science roadmap'
  • 'Programming languages'
  • 'Data munging: string manipulation, regular expressions and data cleaning'
  • 'Visualization and simple metrics'
  • 'Machine learning overview'
  • 'Interlude: feature exraction ideas'
  • 'Machine learning classification'
  • 'Technical communication and documentatios'
La segunda parte 'Stuff you still need to know', continua con técnicas de obligado conocimiento pero desde una perspectiva más avanzada. Se tratan en general aspectos bastante teóricos sobre probabilidad, estadística, algoritmos, series temporales, etc ilustrado, eso sí, con ejemplos y acompañado de algún capítulo más cercano como lo que tiene que ver con buenas prácticas de ingeniería software. Los capítulos que integran esta parte son:
  • 'Unsupervised learning: clustering and dimensionality reduction'
  • 'Regression'
  • 'Data encoding and file formats'
  • 'Big Data'
  • 'Databases'
  • 'Software engineering best practices'
  • 'Natural Language Processing'
  • 'Time series analysis'
  • 'Probability'
  • 'Statistics'
  • 'Programming language concepts'
  • 'Performance and computer memory'
La última parte 'Specialized or advanced topics' trata ya, como claramente se expresa en el título, los temas más avanzados o especializados. En este caso, sólo se incluyen cuatro capítulos, a saber:
  • 'Conputer memory and data structures'
  • 'Maximum likelihood estimation and optimization'
  • 'Advanced clasifiers'
  • 'Sthocastic modeling'
'The data science handbook' ofrece una perspectiva amplia y en cierto sentido multidisciplinar del campo de la ciencia de datos. El tratamiento es riguroso y basado en conocimiento práctico y, a pesar de lo arduo o especializado de algunos temas, el autor se esfuerza en hacerlo sencillo. No obstante, algunos temas son en sí mismos complejos y el libro no siempre es fácil de entender, no por defecto del autor, sino por la base que se precisa para entenderlo completamente.

Considero que Field Cady ha hecho un buen trabajo con este manual.

Field Cady

(Fuente: Traducción y ligera elaboración propia de su perfil en LinkedIn.)

Field Cady
Matemático computacional y aplicado, con especial foco en modelado estadístico y analítica "big data". Hizo investigación en ese campo durante sus estudios y actualmente continua en la misma linea en la industria más innovadora.

Ha realizado consultoría, con clientes que varían entre startups de Internet hasta grandes instituciones financieras, e incluso ha hecho incursiones en la gestión de un equipo de desarrollo hardware. Su foco ha sido siempre conectar conceptos y herramientas abstractas con los beneficios que pueden conseguir en el mundo real.

El énfasis teórico se apoya también en una extensa experiencia real en codificación.

Cady tiene un grado en Computer Science y entre sus logros se incluye el rediseño del módulo de interpolación de la popular librería SciPy, desarrollo de backend en Google y la realización de las APIs en Python y R para Allen Institute for Artificial Intelligence.

Ha escrito 'The Data Science Handkbook' y 'What is Math?', éste último autoeditado.

Puedes saber más acerca del autor visitando su perfil en LinkedIn o siguiéndole en twitter donde se identifica como @fieldcady.

miércoles, 14 de junio de 2017

Un decálogo para una mejor experiencia de cliente



He estado leyendo el informe que, bajo el título 'Transformando el negocio a través dela voz del cliente' ha realizado Deloitte Digital para la Asociación para el Desarrollo de la Experiencia de Cliente y que pone foco en los aspectos de operativización de esa experiencia. Gran parte del contenido del informe explica el método y los resultados, pero, cerca del final, nos ofrecen un decálogo para una experiencia de cliente operativa.

Estos son las diez propuestas que se nos hacen:
  • Facilita el feedback del cliente o 'pónselo fácil': proporcionando variedad de canales de interacción y escuchando al cliente ahí donde a él le gusta interactuar.

  • Combina transacción y relación: no empeñarse en finalizar ventas u otro tipo de transacciones, sino fomentar la relación.

  • Muéstrale que le conoces: Por ejemplo, no preguntar en encuestas por datos que ya debemos tener o utilizar su nombre propio si es apropiado, etc

  • Real-time: el feedback debe ser inmediato y la separación entre una interacción y una encuesta casi nula.

  • Distribuye la información por toda la organización: toda la organización debe conocer a los clientes y el impacto de su comportamiento en la percepción de esos clientes.

  • Mide KPIs cuantitativos pero enriquece con cualitativos: aparte de los KPIs más tradicionales, utilizar herramientas más abiertas de análisis de texto o sentimiento.

  • Equipo de cloppers: un equipo de personas que hablen con los clientes insatisfechos.

  • Utiliza el feedback: que el feedback recibido de los clientes sirva para algo, que guíe planes de mejora concretos.

  • Involucra a los empleados: hacer que toda la organización tenga presente a los clientes, que realmente la cultura sea de orientación a cliente.

  • Mide el impacto económico: medir el impacto de las acciones de mejora de la experiencia pero también el valor de los clientes en función de su satisfacción.
Nada muy sorprendente ¿verdad?

A ver si esto de la experiencia de cliente va a tener mucho que ver con la actitud y el sentido común...

lunes, 12 de junio de 2017

Una definición de realidad aumentada

 
La realidad aumentada es una tecnología, en realidad un conjunto coordinado de tecnologías, o mejor aún, un tipo de soluciones o aplicaciones, que se encuentran en crecimiento y que, aunque sin gozar de la propaganda asociada a otras tecnologías o soluciones como puedan ser Big Data o Inteligencia Artificial, sí parece situarse entre los elementos tecnológicos emergentes o crecientes y que nos puden conducir a disrupciones y transformaciones.

Voy a tratar la realidad aumentada en varios posts próximamente pero, quizá por ello, conviene pararse antes a disponer de una definición.

En su libro 'Understanding augmented reality', Alan B. Craig nos ofrece la siguiente:

A medium in which digital information is overlaid on the physical world that is in both spatial and temporal registration with the phisycal world and that is interactive in real time.

Hay algunos elementos que creo dentro de la definición a destacar o comentar.

En primer lugar, el autor habla de un medio (medium) e insiste mucho en este aspecto. La palabra elegida resulta algo extraña pero creo que en esencia, lo que nos quiere decir es que no se trata de una tecnología concreta sino de que hay muchas tecnologías implicadas y que pueden evolucionar sin que deje de ser realidad aumentada. 

Por supuesto, es esencial destacar que el hecho de que información digital se superpone al mundo físico, eso es la esencia de la realidad aumentada, pero me interesa mucho el aspecto que, con un término de nuevo algo extraño, el autor denomina como in registration. Intentando explicarlo, creo que en castellano puede ser mejor término el decir que está sincronizado. Tampoco es que el termino sincronizado sea del todo exacto pero la idea no es difícil de entender: en realidad aumentada, la información o realidades digitales, se deben encontrar plenamente integradas en el mundo físico, como si formasen parte de él. Si tenemos un jarrón digital encima de una mesa (ejemplo que propone el propio Craig), debe aparecer como justamente encima, apoyado, no flotando. Si se mueve la mesa, se debe mover el jarrón con ella. Eso sería el registro o sincronización espacial. La sincronización temporal es la misma idea pero aplicada al devenir temporal: si el jarrón se mueve con la mesa debe ser de forma simultánea, no después, es decir, debe comportarse como haría un jarrón físico.

El último punto de la definición, interesante porque se suele dar por entendido pero no se suele explicitar, es la interactividad, la capacidad del usuario para interactuar con la parte digital de esa realidad aumentada.

Creo que la definición que propone Alain B. Craig tiene la virtud de recoger, en una frase bastante corta, todos los significados y matices de la realidad aumentada. Así que es un buen comienzo.

viernes, 9 de junio de 2017

Soñar tecnología


  
Debe ser algo así como el efecto Pygmalion de la tecnología y la innovación.

Si entrevemos un área de desarrollo tecnológico y pensamos a lo grande...la tecnología surgirá. Eso es, al menos, lo que nos dice Alain B. Craig en su libro 'Understanding augmented reality' cuando, al inicio del mismo, afirma:

When we see the possibilities and dream big, the the technology required to enable it, will follow. If not, we will invent it.

Viene a ser, en efecto, la versión tecnológica e innovadora de la importancia de la fe y la confianza en aquello que queremos conseguir. La tecnología surgirá o la inventaremos. Ojalá sea cierto.

A soñar...

... y a trabajar...


miércoles, 7 de junio de 2017

¿Cuántos datos son Big Data?

 

Una de las características obvias del Big Data es que es eso, 'big', es decir, que maneja muchos datos.

Pero ¿cuántos datos son mucho datos? ¿Cuándo el manejo de muchos datos hace que hablemos de Big Data?

Eso mismo se pregunta Field Cady en su libro 'The Data Science Handbook'. La respuesta que propone no es estricta, pero sin embargo sí es muy clarificadora al respecto de la naturaleza de Big Data frente a otras tecnologías como Datawarehouse.

Esta es la respuesta de Cady:

it happens when it is no longer practical to store or process it all on a single computer.

Vale, eso no es una cantidad concreta. Es más, a medida que la capacidad computacional o de almacenamiento de los ordenadores crece, la respuesta puede ser, no sólo ambigua, sino también móvil, dinámica.

Sin embargo, para quien lo que se pregunte realmente sea qué es lo que diferencia desde un punto de vista técnico a Big Data de Datawarehouse, la respuesta es bastante valiosa. Porque uno de los aspectos tecnológicamente novedosos de Big Data, uno de los pocos aspectos tecnológicos diferenciales, creo, es ese procesamiento y almacenamiento distribuido usando algoritmos como el famoso MapReduce.

Así que, ya tenemos una idea de cuántos datos son Big Data. ¿O no?

lunes, 5 de junio de 2017

Clasificadores: el encuentro entre Data Science, Machine Learning y Redes Neuronales



Con frecuencia, cuando se ponen de moda, las fronteras entre diferentes tecnologías o simplemente técnicas se vuelve confusas. A veces porque realmente no son tan nítidas, a veces porque el ‘marketing tecnológico’ intencionadamente aplica incorrectamente términos de moda a tecnologías ya conocidas y menos ‘glamurosas’, a veces por pura confusión o ignorancia del que usa los términos.

Una de las zonas más borrosas hoy en día, al menos en mi percepción es la que separa a Data Science o Big Data de Machine Learning y a ésta de Deep Learning o Inteligencia artificial.

Quizá valga la pena dedicar tiempo y espacio a marcar todas esas fronteras pero, en este artículo, sólo voy a hablar de clasificadores y cómo se relacionan con algunos de esos términos. Y lo hago, motivado e inspirado por la descripción que en su libro ‘The Data Science Handbook’ hace Field Cady sobre los clasificadores, una descripción por un lado bastante simple y pedagógica pero que me parece rigurosa, basada en el conocimiento y que, personalmente, me ha permitido visualizar muy bien cierta relación entre Data Science, Machine Learning y Redes Neuronales.

Intentemos entender primero qué es un clasificador. Podemos decir que un clasificador es un algoritmo que, recibiendo como entrada cierta información de un objeto, es capaz indicar la categoría o clase a que pertenece de entre un número acotado de clases posibles. Por ejemplo, podemos leer una imagen que representa un número (como cuando se leen las matrículas de los coches en ciertos aparcamientos) y clasificarlo indicando de qué dígito se trata. O podemos recibir como entrada la imagen de un animal y decir si se trata de un gato, un perro o un loro. En algunas ocasiones, más que una clasificación, lo que proporciona es un valor numérico que indica la confianza que tenemos de que la entrada se corresponda con una cierta clasificación.

Field Cady nos dice que, en realidad, un clasificador, uno basado en Machine Learning, funciona en dos fases:
  • En una primera fase es entrenado, es decir, recibe una gran cantidad de datos de ejemplo y su clasificación correcta, de forma que se pueden ajustar los parámetros del algoritmo para un funcionamiento óptimo.

  • Cuando ya está entrenado es cuando ya funciona como describíamos más arriba: recibe unos datos de entrada y da la clasificación correspondiente como salida.
A continuación, Cady nos describe los siguientes clasificadores:
  • Árbol de decisión (‘Decision Tree’): simplemente una estructura donde en cada nodo se hace una pregunta y, en función de la respuesta, se sigue hacia un nodo u otro. La respuesta final es la categoría que andamos buscando.

  • Bosques aleatorios ('Random forest'): una colección de árboles de decisión entrenados cada uno con un subconjunto de los datos disponibles y que se ocupan sólo de un subconjunto de las características. La decisión final se toma como una media de las decisiones individuales de los árboles.

  • Grupo de Clasificadores (‘Ensemble Classifier’): Una generalización de los bosques aleatorios. Tomamos varios clasificadores (árboles de decisión o no), se entrenan bajo condiciones diferentes, y sus resultados se agregan de alguna forma. La idea subyacente es que cada clasificador en muy bueno en algo y los diferentes clasificadores son bastante independientes, de forma que se espera que la agregación sea una buena clasificación.

  • Máquinas de Vectores de Soporte (‘Support Vector Machines’): Se trata de un tipo de clasificadores que asumen que se puede establecer fronteras lineales en el espacio total de valores posibles de forma que, dependiendo de dónde se encuentre un conjunto de datos concreto, estará a alguno de los lados de la frontera, lo que lleva a su clasificación según el lado en que se encuentre. Asumen una separabilidad lineal (las fronteras vienen dadas por ecuaciones lineales).

  • Regresión Logística (‘Logistic regression’): Es como una versión no binaria de las Support Vector Machines. También suponen algún tipo de frontera pero lo que hacen es asignar probabilidades de una clasificación u otra según lo cerca o lejos que se encuentren de la frontera.

  • Regresión Lasso (‘Lasso Regression’): Una variante de la anterior, pero que tiende a eliminar las zonas de clasificación confusa.

  • Bayes ingénuo (‘Naive Bayes’): una aplicación simplificada de la estadística bayesiana en que, se parte de unos valores iniciales de confianza en una clasificación y, durante el entrenamiento se van ajustando

  • Redes Neuronales (‘Neural Nets’): en que un conjunto de nodos estructurados en capas, obtienen una salida en función de sus entradas y la aplicación de unos pesos. Estos pesos se ajustan durante el entrenamiento, y es la forma en que aprenden. Las redes neuronales son en general buenas cuando se trata de clasificar con base en muchas características.

Si se observa el listado anterior vemos que, en todos los casos, tenemos unos algoritmos que toman una serie de entradas y generan unas salidas, que son la clasificación. Y vemos que todos ellos ajustan de alguna forma sus parámetros mediante el aprendizaje basado en un amplio conjunto de ejemplos con sus entradas y su respuesta correcta. 

Todos son herramientas de Data Science (de análisis de datos) y en todos hay aprendizaje (machine learning).aunque el algoritmo específico pueda ser muy diferente.

Bajo esta perspectiva, desde un punto de vista externo, tratando todos los clasificadores como cajas negras,todos se comportan igual. Su algoritmo interno es diferente y sus resultados o mejores áreas de aplicación pueden variar, pero hacen lo mismo y tienen todos la capacidad (y la necesidad) de aprender. Y esto va desde algoritmos tan sencillos de entender como los árboles de clasificación como los más complejos y en cierto modo incomprensibles de una red neuronal.

La verdad es que, visto así, parece entenderse con más claridad la cercanía de conceptos, a priori bastante diferentes, y por qué no siempre las fronteras están claramente definidas. Si no eres muy especialista, o si sólo te importan los resultados y no cómo se llega a ellos, las cosas no son muy distintas.

Eso no justifica el que nos esforcemos en nombrar y entender cada tecnología por sí misma, pero hace más disculpable,mucho más disculpable. a aquel que no lo consigue.

Pero no dejemos de intentarlo, por favor.

Nosotros, no dejaremos de hacerlo.

viernes, 2 de junio de 2017

Dos avisos para navegantes tecnológicos



Un peligro del tecno-optimismo es dejarnos llevar por el entusiasmo y, sin rigor, análisis, ni crítica, dar por buena una tecnología simplemente porque está de moda, sin conocer bien sus características, su madurez, su campo de aplicación... o las tecnologías más maduras alternativas.

Dos de los campos más de moda hoy en día son Big Data e Inteligencia Artificial, y dentro del polifacético y politecnológico panorama de ésta última, el procesamiento del lenguaje natural.

Para dejarlo claro: personalmente soy optimista en lo que a la tecnología se refiere, creo que históricamente nos ha aportado muchísimo y que aún tiene más que aportar en el futuro. Y los dos campos mencionados son de los que me resultan más atractivos.

Sin embargo, también amo el rigor y el realismo, así que, sin decir que esté en lo cierto ni lo contrario, me parece interesante traer a colación dos advertencias que Field Cady hace en su libro 'The Data Science Handbook'. La primera es relativa a Big Data, respecto al la cual nos dice:

Big Data tools are almost always slower, harder to setup, and more finicky than their traditional counterparts.

La segunda es a propósito del procesamiento de lenguaje natural

NLP processing is generally very computationally inefficient.  

Ni afirmo ni desmiento que Field Cady esté en lo cierto, aunque a buen seguro tiene razones para hacer estas afirmaciones. 

Lo que sí es importante, es que nos puede abrir los ojos, nos puede recordar que 'no es oro todo lo que reluce' y, sobre todo, nos puede servir de acicate para tener siempre muy presente que, por brillante y atractiva que sea una tecnología, lo primero de todo es siempre el rigor y la responsabilidad en su aplicación.