miércoles, 31 de mayo de 2017

Una apología de la documentación del código



La documentación del código es una de esas tareas cuya realización resulta tediosa y suele evitarse pero que, a la larga, paga dividendos o, más bien, evita los costes de la no documentación.

Y en este caso la defensa de la documentación del código proviene no de un metodólogo o de un ingeniero de software, no al menos en un sentido tradicional, sino de Field Cady, un científico de datos quien, en su libro, 'The Data Science Handbook' afirma: 

Everybody who writes code is responsible for making sure that their code is clear.

No sólo una buena práctica, sino una responsabilidad. Documentar el código lo hace más legible no sólo para terceros (por ejemplo, otro desarrollador que deba evolucionarlo o encontrar un bug) sino para el mismo autor del código quien, probablemente, cuando hayan transcurrido unas semanas desde que lo realizó, también le cueste entender su propio código.

Documentar el código lo hace más mantenible y más evolucionable. Más barato, por tanto, aunque en una forma difícil de cuantificar.

La claridad, la legibilidad, no sólo del código, sino también de cualquier documento, mensaje, ayuda  o manual son atributos insoslayables. 

Más allá de una buena práctica, una responsabilidad...pocas veces asumida...

lunes, 29 de mayo de 2017

Las fases de un proyecto de Data Science



Aunque Data Science es una disciplina que puede aplicarse a todo tipo de campos, a todo tipo de sectores, negocios e investigaciones, lo cierto es que, dejando aparte las diferencias particulares dependientes del campo de aplicación y situaciones específicas, en sus líneas básicas, siguen una mecánica muy parecida, unas fases que parecen repetirse una y otra vez.

En su libro, ‘Data Science Handbook’, Field Cady nos habla de un Data Science Roadmap que, en el fondo, no es más que eso: identificar las etapas de un proyecto de Data Science habitual.

El autor habla de seis pasos, aunque en mi opinión, realmente sólo cinco son verdaderas fases. Serían éstas:

  • Establecer el marco del problema: entender la necesidad del negocio y definir claramente el problema. Aquí es donde es muy importante, como mencionábamos en un post anterior, definir claramente la pregunta o las preguntas de negocio a las que queremos dar respuesta. Es importante saber cómo sería una respuesta o resultado que considerásemos una solución. En el caso de proyectos complejos, puede ser necesario recoger las necesidades en un documento.

  • Entender los datos: Se trata de un análisis preliminar de los datos de que se dispone: su tamaño, su calidad, si son completos o parciales, si son representativos, si existen ‘outliers’ (datos atípicos), si existen identificadores y cuáles son. De forma resumida, es importante saber si se dispone de los datos necesarios para contestar a la pregunta o preguntas que definen el problema a resolver y, por tanto, el objetivo del proyecto. En esta fase, además, se transforman de su formato original a alguno otro más apto para su tratamiento mediante herramientas de análisis. Luego vendría un análisis exploratorio, observarlos, probablemente graficarlos desde diferentes perspectivas...

  • Extraer características: En cierto modo, es una continuación de la fase anterior y puede tener un cierto solape. Se trata de extraer números o categorías que caractericen los datos. Además, y como resultado, se transforman esos datos a formatos tabulares aptos para su tratamiento.

  • Modelar y analizar: Se realizan las clasificaciones, se aplican modelos, tal vez machine learning. Aunque esta fase parece el núcleo del trabajo, el autor nos advierte que puede ser bastante sencillo porque, al fin y al cabo, existen ya muchos modelos pre-construidos, y potentes herramientas que hacen fácil su aplicación. Con frecuencia, se aplican varios modelos para examinar los datos desde diferentes perspectivas.

  • Presentar los resultados: sin duda la parte menos técnica de todo el trabajo...pero puede que la más importante, porque es a través de la cual conseguimos (o no) que el negocio, los 'stakeholders' que encargaron el trabajo, reciban sus respuestas y puedan decidir con base en ellas.
Roadmap propuesto por Field Cady


Para ser correctos, Field Cady añade otra sexta etapa: entregar el código. Recordemos que para Cady, un hecho diferencial del científico de datos frente a un estadístico, es que utilizaba técnicas de ingeniería de software de forma intensiva en su trabajo. Sin embargo, en mi opinión, y sin despreciar en absoluto la importancia del software como entregable, creo que desde un punto de vista metodológico no tiene la categoría de fase sino, más bien, de entregable, de subproducto, por valioso que pueda ser.

Y estas son las fases. Unas fases que, he podido ver en otras fuentes descritas de forma parecida, así que creo constituyen un buen marco de referencia.

viernes, 26 de mayo de 2017

Mi Actividad: Webinar "Poner en marcha tu transformación digital"



En la tarde de hoy Viernes, 26 de Mayo, imparto un Webinar que he titulado "Poner en marcha tu transformación digital"

El Webinar, de una hora de duración, está dirigido a los socios del Observatorio eCommerce & Transformación Digital.

Las ideas que pretendo explicar o transmitir son:
  • Las causas profundas del poder disruptivo de lo digital
  • Resumen de las principales realidades y tendencias digitales
  • ¿Qué es realmente eso de la Transformación Digital? Mi definición
  • Formas que puede adoptar una transformación digital
  • Selección de iniciativas de transformación para tu empresa
  • Gestión de la transformación basada Dirección de Proyectos

Si eres socio del Observatorio eCommerce & Transformación Digital y te interesa el tema, no tienes más que unirte o visualizarlo luego en diferido. Si no... puedes asociarte. Y si tampoco... bueno, siempre puedes encontrar mis ideas desperdigadas por este blog... o tal vez en el futuro podamos encontrar otras vías... :)

miércoles, 24 de mayo de 2017

Una curiosa definición de Data Science



El 'Data Science' (la ciencia de los datos) es una de esas disciplinas emergentes, de las que se habla mucho, no se conoce tanto, y donde se mezcla la realidad, la confusión y la propaganda.

No siempre queda clara su frontera con la estadística, o con el Big Data, el machine learning e, incluso, a veces, ni siquiera con la inteligencia artificial.

En las primeras líneas de su libro 'The Data Science Handkook', Field Cady nos da la siguiente definición de Data Science:  

Data Science means doing analytics work that, for one reason or another, requieres a substantial amount of software engineering.

Una definición que me resulta llamativa, aunque puede que sea acertada. Lo cierto es que Cady no se eleva mucho a los tópicos o al 'hype'. Explica abiertamente que lo que hace un científico de datos es un trabajo analítico sobre datos. Simple y claro.

Ahora bien, ¿en qué se diferencia entonces de un estadístico? Pues en el uso frecuente, casi obligatorio, de la ingeniería del software, de la programación como herramienta fundamental de ayuda a su trabajo.

No parece una distinción conceptualmente fuerte, aunque puede que sea realista en la práctica. Lo cierto es que cuando explica un poco más el detalle técnico se ve que en la concepción de Cady, el científico de datos 'invade' también ligeramente el campo de la inteligencia artificial (usa redes neuronales como clasificador, por ejemplo)

Lo cierto es que el autor parece darse cuenta de que la diferencia no es profunda y que por tanto es coyuntural. De hecho, poco más adelante, expresa esta opinión:

In 20 years I suspect that statistics, data science and machine learning will blur into a single discipline.

Acertada o no, también parece una predicción realista, con los pies asentados en el suelo y más allá de los mitos.

Quizá la definición de Data Science de Field Cady no sea muy académica, pero, desde luego, su realismo y honestidad resultan clarificadoras y de agradecer.

lunes, 22 de mayo de 2017

Data Science y la pregunta adecuada



Establecer claramente objetivos es muy importante. Tener clara una estrategia es fundamental.

Es una verdad válida para cualquier acción de una cierta ambición que emprendamos. Es importante para un cambio estratégico, para un proyecto clave o para una transformación digital.

Y también es importante para un trabajo en Data Science. Sólo que, cuando hablamos de Data Science, los objetivos se establecen en forma de preguntas.Vamos a bucear en datos, vamos aplicar técnicas estadísticas y machine learning pero ¿para qué?

Pues, simplemente, para contestar a una pregunta o un conjunto de preguntas que tienen sentido en el ámbito de negocio o de gestión que corresponda.

En efecto, en esa línea y al principio de su libro 'The data science handbook', Field Cady nos dice

The difference between great and mediocre data science is not about math or engineering: it is about asking the right question.

Hace unos meses, publicaba en este blog el libro 'Executive Data Science' de Brian Caffo, Roger D. Peng y Jeffrey T. Leek. En ese libro, y en el curso que realicé en Coursera y al que correspondía esa obra, se insistía también en la misma idea: la importancia de formular las preguntas adecuadas.

Si lo dicen dos autoridades y dos libros debe ser cierto ¿no?.

Lo principal para iniciar un trabajo de Data Science es saber las preguntas a que queremos contestar con el análisis.

Y, por extensión, lo principal para iniciar un gran proyecto o transformación es tener claros los objetivos.

viernes, 19 de mayo de 2017

Lo que hay que saber de Inteligencia Artificial con Jerry Kaplan

'Artificial Intelligence. What everyone needs to know' es una revisión breve y multidisciplinar del campo de la inteligencia artificial y su situación actual, una revisión que, a pesar de su necesaria brevedad y falta de profundidad, me ha parecido a pesar de todo rigurosa, seria e interesante, aunque abre más vías de investigación, aprendizaje y análisis de las que cierra.

El libro se estructura en ocho capítulos:

  • 'Defining Artificial Intelligence' aborda la nada difícil labor de definir lo que es inteligencia artificial. Comienza por la definición de John McCarthy en 1955 para luego analizar lo que es inteligencia y proponer una definición propia

  • 'The Intellectual History of Artificial Intelligence' Repasa la historia de la inteligencia artificial, comenzando por la famosa conferencia de Darmouth, y pasando revista a la lógica simbólica o los sistemas expertos, para acabar con las redes neuronales y el machine learning. Luego compara el razonamiento simbólico con el machine learning. Finaliza resumiendo los hitos más importantes en el avance de la inteligencia artificial.

  • 'Frontiers of Artifical Intelligence' en que nos habla de robótica, visión artificial, reconocimiento del habla y procesamiento de lenguaje natural.

  • 'Philosophy of Artifical Intelligence' Cambia un poco de tercio para empezar a considerar la Inteligencia artificial desde otros puntos de vista, empezando por el filosófico. Comienza por abordar la distinción entre la inteligenia artificial fuerte (las máquinas tienen mente) y la débil (las máquinas realmente simulan un comportamiento inteligente). Se pregunta si las máquinas pueden realmente pensar y qué pasa con el libre albedrío, la conciencia o el sentimiento.

  • 'Artificial Intelligence and the Law' revisa el campo de la Inteligencia Artificial en relación con la ley, tanto en lo relativo a la ayuda que puesta prestar a abogados como a la eventual necesidad de una legislación específica para la computación, y se atreve a adentrarse en asuntos espinosos como si un programa puede tomar parte en contratos y acuerdos, si se puede restringir la capacidad de actuación de un agente inteligente o si las personas deben ser responsables de lo que en su nombre hacen los agentes inteligentes, si un programa puede cometer un crimen o si un agente inteligente debe obedecer la ley y ser responsable de sus actos.

  • 'The Impact of Artificial Intelligence on Human Labor' Comienza con el traído y llevado debate acerca de si los robots eliminarán trabajos. Luego examina qué tipos de trabajo es previsible que se automaticen mediante inteligencia artificial.

  • 'The Impact of Artificial Intelligence on Social Equity' Examina brevemente el concepto de una sociedad basada en el trabajo frente a alternativas que pudieran surgir a partir de la generalización de la inteligencia artificial y la robótica, y la mejor forma de distribuir los activos

  • 'Possible Future Impacts of Artificial Intelligence' Explora el futuro con especial foco en lo que se conoce como 'la singularidad', el momento en que las máquinas sean más inteligentes que sus creadores y escapen a su control. También explora posibilidades tan asombrosas y escalofriantes como que podamos subir nuestra mente a una máquina, igual que hacemos con programas o datos y hasta qué punto se mantendría nuestra identidad en ese caso.
'Artificial Intelligence. What everyone needs to know' es un libro que, aunque no tiene la oportunidad de profundizar, plantea de una forma ordenada, rigurosa e interesante, los diferentes puntos de vistas desde los que podemos contemplar la inteligencia artificial. Ayuda a estructurar este algo difuso campo de conocimiento y a entender en qué punto estamos, no específicamente desde un punto de vista técnico sino global.

Buen libro.

Jerry Kaplan

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en Big Think)

Jerry Kaplan
Jerry Kaplan es ampliamente conocido en la industria de la computación como un emprendedor en serie, inventor, científico y autor. Actualmente es miembro del The Stanford Center for Legal Informatics. Además enseña Filosofía, Ética e Impacto de la Inteligencia Artificial en el Computer Science Department de la Stanford University.

Kaplan ha sido co-fundador de varias empresas incluyendo Winster.com (juegos sociales), Onsale.com (subastas en línea), GO Corporation (tablets) y Teknowledge (sistemas expertos). Escribió una exitosa novela de no ficción titulada 'Startup: A Silicon Valley Adventure', seleccionada por Business Week como una de los diez mejores libros del año. Entre sus últimos libros se encuentra 'Humans Need Not Apply' (traducido al español como 'Abstenerse humanos').

Kaplan ha co-inventado numerosos productos incluyendo Synergy (el primer teclado instrumental completamente digital y usado para la banda sonora de la película TRON), Lotus Agenda (el primer gestor de información personal), PenPoint (sistema operativo de tablet utilizado en el primer smartphone de AT&T; EO 440), el ordenador GO (primera tablet), y Straight Talk (primer sistema de consultas en lenguaje natural de Symantec). También es co-inventor de las subastas online (patentes ahora propiedad de eBay) y es citado en 12 patentes norteamericanas.

Ha publicado numerosos artículos y ha sido referenciado en numerosas revistas incluyendo Artificial Intelligence, Communications of the ACM, Computer Music Journal, The American Journal of Computational Linguistics y ACM Transactions on Database Systems.

Kaplan ha sido premiado con el Ernst & Young Entrepreneur of the Year en 1998, ha servido como miembro del Governor’s Electronic Commerce Advisory Council bajo el mandato de Pete Wilson, Gobernador de California. Ha recibido un Doctorado Honorario en Administración de Empresas por California International Business University, San Diego, California (2004).

Su perfil aparece en The New York Times, The Wall Street Journal, Forbes, Business Week, Red Herring y Upside y es un conferenciante habitual.

Puedes saber más acerca del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @Jerry_Kaplan.

miércoles, 17 de mayo de 2017

Affective computing: las emociones impostadas



Los sentimientos, puede que la última frontera para que la inteligencia artificial se pueda considerar humana.

Y si embargo, incluso en ese campo ya hay avances. 

Siguiendo un poco la filosofía del ya casi venerable test de Turing, una disciplina de la computación, la computación afectiva (affective computing) intenta, al menos, conseguir comportamientos externos que reconozcan y simulen emociones y afectividad.

Así nos lo descubre Jerry Kaplan en su libro 'Artificial Intelligence. What everyone needs to know' quien nos dice: 

Regardless of wether machines can actually have feelings, it's certainly possible to create devices that convincingly express emotions. An entire subfield of computer science -affective computing- aims to both recognise and generate human affects.


No nos confundamos. Se trata de una afectividad impostada, que simula unas emociones. No podemos afirmar que una máquina realmente sienta. En realidad, hasta nos resultaría complicado explicar qué es realmente sentir para un humano.

Pero dado que, incluso en nuestra relación con otros humanos, lo que percibimos en sólo la manifestación externa de la emoción, incapaces de conocer sólo la naturaleza íntima de las propias vivencias, una máquina que fuese maestra en impostar afectividad, en demostrar externamente emociones, hasta qué punto no nos sería creíble, amable y casi, casi humana? 

Cada vez más nos acercamos a fronteras...

¿Qué habrá más allá?

lunes, 15 de mayo de 2017

La tecnología y el tiempo



Se dice que el tiempo todo lo cura.

Y nos referimos con ello heridas de carácter fundamentalmente emocional. Pero ese efecto curativo o atenuador que caracteriza al paso del tiempo parece aplicarse a otras situaciones... y una de ellas es la consideración sobre las tecnologías, por novedosas y disruptivas que éstas nos parezcan. 

Aunque las nuevas tecnologías nos causan asombro y admiración, aunque en ocasiones también nos asustan y hacen temer un futuro distópico y quizá catastrófico, lo cierto es que nos acostumbramos a ellas, las asimilamos en nuestra forma de vivir y pensar y acabamos por no concederles la más mínima importancia.

Así ha ocurrido en el pasado desde innovaciones tan antiguas como la rueda, el fuego, la agricultura o la imprenta, hasta otras más modernas como la electricidad o el agua corriente y acabando en las más cercanas en el tiempo como la televisión, Internet, la informática o los smartphones.

A todo ello nos acostumbramos e, incluso, las nuevas generaciones que no han conocido otra cosa, lo pueden dar por supuesto.


Technologies that are sometimes greeted with concern and alarm by those living during their introduction are often accepted as commonplace and unremarkable by future generations.

Y si eso ha ocurrido en el pasado, no parecemos a estar autorizados para pensar que algo diferente va a ocurrir en el futuro. 

Y si eso es así, tecnologías que nos pueden asustar, la inteligencia artificial que podría llegar a crear máquinas de pensamiento autónomo, los robots que nos podrían dejar sin empleo, o la edición genómica que nos cuestiona desde un punto de vista ético...

El futuro no está escrito, pero si hacemos caso de la experiencia del pasado, no debemos temer a las nuevas tecnologías, por disruptivas que éstas sean, por más miedo que nos produzcan...

viernes, 12 de mayo de 2017

Conocer la Nanotecnología con Ben Rogers, Jesse Adams y Sumita Pennathur

'Nanotechnology: The whole story' es una delicia científica, un libro a medio camino entre el libro de texto y la divulgación científica sobre el mundo de la nanotecnología. Un libro que explica e ilustra muy bien los fundamentos de esta disciplina, a pesar de lo cual es de un nivel es medio/alto y considero necesario por un lado una base física que no está al alcance de todos, y por otra parte un estudio detenido si se quiere aprovechar completamente todo el contenido de la obra.

A pesar del 'sufijo' tecnología con que finaliza el nombre de nanotecnología, lo cierto es que es mucho más un libro de física, y por tanto de fundamentos científicos, que un libro de ingeniería y de aplicaciones o soluciones específicas, aunque algunas sí que se mencionan. Probablemente ello sea debido, no sólo al origen de los autores (ligados a la Universidad de Nevada) sino también proque ese es realmente el punto en que se encuentra hoy en día esta disciplina tan interesante como prometedora.

El libro se estructura en once capítulos:
  • 'Big Picture of a Small World' Sirve a modo de introducción y nos habla del átomo y de alguna de las mayores aportaciones a su comprensión como las de Demócrito, Richard Smalley, Rutherford, Bohr, Einstein o Richard Feynmann

  • 'Introduction to Miniaturization' explica algunas de las ventajas de trabajar a muy pequeña escala pero también nos avanza algunas de las muy notables diferencias que nos encontramos frente a una física tradicional al trabajar en escalas nanométricas.

  • 'Introduction to Nanoscale Physics' profundiza más en esa física de la nanoescala, repasa los fundamentos de la mecánica cuántica, de las ondas electromagnéticas o del efecto fotoeléctrico.

  • 'Nanomaterials' donde empieza a acercarse las áreas de aplicación. Primero dedica un amplio espacio a repasar los conceptos del enlace químico y de las fuerzas de Van Der Waals para a continuación estudiar algunos materiales y estructuras destacando los nanotubos de carbono.

  • 'Nanomechanics' Empieza repasando algunos conceptos físicos como velocidad, aceleración y fuerza o frecuencia de resonancia para a continuación estudiar fenómenos a nivel nano como osciladores, rayos, fonones, sensores de masa nanométricos, memorias nanometricas, microscopios, etc

  • 'Nanoelectronics' De nuevo, comienza repasando fundamentos físicos como las bandas de energía electrónicas, el comportamiento en conductores, aislantes y semiconductores o la energía de Fermi para luego ver cómo se puede aplicar a escala nanométrica para conseguir, por ejemplo, transistores de un solo electrón (SET), interruptores moleculares o memorias de almacenamiento.

  • 'Nanoscale Heat Transfer' Salta ahora al campo del calor y, tras repasar conceptos como la constante de Boltzmann o la conductividad de calor, pasa a estudiar los fenómenos de conductividad de calor en escala nano y nos habla de una mejor conversión de la energía en el caso de la termoelectricidad, o de aspectos relevantes en convección y radiación.

  • 'Nanophotonics' que estudia la interacción a escala nanométrica de fotones y materiales. Nos habla de la absorción de fotones, de su emisión, de la dispersión, de la permitividad y luego habla de aplicaciones como el uso de partículas de oro o plata para cambiar colores, el ajuste de la banda de gap en semiconductores, láseres, luz,microscopios, etc

  • 'Nanoscale Fluid Mechanics' Pasamos ahora a una mecánica de fluidos a escala nano. Primero nos habla del concepto de 'Continuo' y nos recuerda las ecuaciones de 'Navier-Stokes' o el número de Reynolds para ver cómo eso se traduce en escala nano en fenómenos como la electroósmosis o la electroforesis. Finaliza con un rapidísimo repaso a las aplicaciones de estas ideas.

  • 'Nanobiotechnology' Comienza hablando de las células vivas, de su funcionamiento y cómo eso ocurre a escala nanométrica y las implicaciones que ello supone, como el hecho de que la gravedad y la inercia sean muy poco representativas a esa escala. Nos habla de azúcares, ácidos grasos, nucleótidos y aminoácidos para luego recorrer la estructura del ADN, el ATP, y la codificación de la información genética. Finaliza explorando algunas aplicaciones como nanoestructuras biomiméticas o motores moleculares

  • 'Nanomedicine' Primero explica lo que es la nanomedicina. Luego nos habla de las nanopartículas, el uso de la nanomedicina en la lucha contra el cáncer o de la biomimesis, pero también nos alerta de la potencial toxicidad de estas soluciones, del posible impacto medioambiental y de sus implicaciones éticas
'Nanotechnology: The whole story', es una obra quizá no tan sencilla como sus autores seguramente pretendieron pero, aún así, didáctica y absolutamente apasionante. Probablemente se merezca una segunda lectura...

Ben Rogers

(Fuente: Traducción y ligera elaboración propia de la biografía en su Página personal)

Ben Rogers
Nació en 1977 y vive en Reno, Nevada, con su mujer y dos hijas. Su primera novela 'The flamer' se publicó en 2012. Sus obras han aparecido en una multiplicidad de publicaciones literarias y ganó una beca Nevada Arts Council Fellowship y una subvención Sierra Arts Foundation.

Es el autor líder de 'Nanotechnology: Understanding Small Systems' el primer libro de texto sobre nanotecnología, actualmente en su tercera edición, y también 'Nanotechnology: The Whole Story' un libro para amplia audiencia.

Estudió ingeniería y periodismo y tiene un master en ingeniería mecánica. Ha trabajado como analista de negocio, reportero, profesor y científico en varios laboratorios, incluyendo el Oak Ridge National Laboratory y el Jet Propulsion Laboratory de la NASA.

Desde 2004 ha sido el Ingeniero Jefe en Nevada Nanotech Systems.

Jesse Adams

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en CRC Press)

Jesse Adams
Cofundador de 3 startups y coautor de dos libros, actualmente sirve como miembro del consejo, Vicepresidente y CTO de Nevadano, así como miembro gestor de Nanolabz and Nanojems.

Jesse tiene un grado de ingeniería mecánica con optativa en negocio, por la Universidad de Nevada en Reno. Se graduó Summa Cum Laude y recibió también el premio outstanding mechanical engineering senior. Tras obtener una beca para graduados, Jesse se fue a la Universidad de Stanford, donde recibió un Máster de Ciencia en Mecatrónica. Sus intereses investigadores le condujeron a perseguir un doctorado en nanotecnología trabajando con el coinventor del microscopio de fuerza atómica, Calvin Quate. Desarrollo un AFM muti-sonda de alta velocidad, para lo que fue preciso un intenso trabajo en las cámara limpias de Stanford para fabricar las sondas activas. Durante su estancia en Stanford, Jesse participó en un comité para el rector, por aquel entonces Condolezza Rice, para explorar y hacer recomendaciones sobre soluciones de alojamiento de emergencia para graduados. También sirvió durante dos trimestres como director asociado del muy respetado colegio de estudiantes de segundo año de Stanford.

Siendo profesor ayudante en la universidad de Nevada en Reno, Jesse desarrolló una microplataforma en voladizo autosensible en investigación para la detección de explosivos, detección de vapores químicos, y detección de agua de calidad. Además, Jesse hizo investigación sobre objetivos de láseres físicos y desarrolló un nuevo curso sobre nanotecnología que formaba a los estudiantes en un entendimiento amplio de la materia.

Jesse es co-autor del primer libro de texto en su clase clase 'Nanotechnology: Understanding Small Systems' así como más de 20 artículos técnicos. Tiene múltiples patentes y patentes pendientes, ha dictado numerosas charlas invitadas sobre microscopía con sondas de escaneo y detección química con microvoladizos y ganó un premio regional y nacional de speaking, así como un premio nacional de diseño, un premio de innovación universitaria y elScientific American 50 award de 2004 en la categoría de defensa.

Sumita Pennathur

(Fuente: Traducción y ligera elaboración propia de su ficha de autor en CRC Press)

Sumita Pennathur
Actualmente, profesora asociada de ingeniería mecánica en la Universidad de California en Santa Bárbara, habiendo obtenido un grado en el MIT y un doctorado en la Universidad de Stanford. Ha sido una contribuyente activa en los campos de la nanofluídica y sistemas nanoelectromecánicos (NEMS), y fue premiada tanto con Presidential Early Career Award for Science and Engineering (PECASE) en 2011, como un DARPA Young Faculty Award en 2008.

Ficha técnica:

AUTOR: Ben Rogers, Jesse Adams y Sumita Pennathur
EDITORIAL: CRC Press
AÑO: 2013
ISBN:  978-1439897805
PAGINAS: 395


miércoles, 10 de mayo de 2017

El estado real de la robótica en clave de humor... o no



Este post es una broma... o puede que no. Puede que sea sensato, muy sensato o, al menos, muy necesario.

Leyendo 'Artificial Intelligence. What everyone needs to know' de Jerry Kaplan me encuentro con una interesante reflexión, algo así como un contrapeso. Un contrapeso que, en este caso, aplica a la robótica, pero que puede ser necesario para toda la tecnología de última generación, especialmente si viene afectada por un cierto exceso de marketing y exposición al gran público.

Y es que, con frecuencia, en el mundo de las nuevas tecnologías, se hinchan las expectativas y, lo que es peor, hasta la explicación de las realidades. 

Uno de los campos más apasionantes de la tecnología, y creo que con mayor presente y futuro, es el de la robótica combinada con la inteligencia artificial. La unión de ambos puede llegar a producir androides que parecen de pura ciencia ficción. Y, sin duda, se producen grandes avances y cabe esperar muchos más...pero lo que no se nos suele mostrar son los fracasos, las limitaciones, los fallos.

Bueno, no se nos muestran habitualmente.

Pero, en el libro citado, y precisamente como un contrapeso a la mitificación de la robótica, menciona este vídeo, un vídeo producido por IEEE Spectrum Magazine en 2015 y que recoge fallos en funcionamiento de robots. Vemos caídas, vacilaciones... y lo cierto que es casi tan gracioso como cuando vemos a personas resbalar o cometer torpezas.


Quizá no tan digno. Quizá no tan impresionante. Aunque divertido y, seguramente, ilustrativo.

A lo mejor, es que, en efecto, los robots son cada vez más como las personas (este último comentario es irónico :) )

lunes, 8 de mayo de 2017

La paradoja de la Inteligencia Artificial



La Inteligencia Artificial tienen un algo de mítica, misteriosa, fantástica...

Puede que sea por esa atribución de misión no completamente acertada: emular la inteligencia humana. Algo que ya vimos al hablar de la metáfora e inspiración de la inteligencia artificial que no es completamente cierto.

Como la mente humana es misteriosa y no la entendemos completamente, quizá ni siquiera básicamente, parece que la Inteligencia Artificial también debe gozar de ese halo de misterio, de ese aura de impenetrabilidad, de comprensión incompleta.

Y lo cierto es que algunas de las técnicas más populares de la Inteligencia Artificial, las redes neuronales y el deep learning, exhiben esa naturaleza misteriosa: sabemos sus fundamentos, sabemos sus algoritmos y, sin embargo, no alcanzamos a comprender del todo cómo es posible su aprendizaje, especialmente en el caso de las redes no supervisadas.

Sin embargo, como suele suceder con cualquier disciplina, a medida que ésta avanza y madura, hay problemas que se resuelven y son ya perfectamente conocidos.

Y ahí es donde Jerry Kaplan, en su libro 'Artificial Intelligence. What everyone needs to know' nos descubre una paradoja:

the field of AI suffers from an unusual deficiency - once a particular problem is considered solved, it often is no longer considered AI.

O sea, que cualquier técnica procedente del campo de la Inteligencia Artificial que madure hasta el punto de ser perfectamente conocida y entendida...deja de ser Inteligencia Artificial.

A lo mejor en este caso, la metáfora resulta perjudicial...

viernes, 5 de mayo de 2017

El método TED para hablar en público con Chris Anderson

Si en algún sitio se ve a los mejores oradores en acción, si en alguna parte se puede aprender sobre cómo hablar en público, creo que son los eventos TED. Por ello, que el responsable de TED, Chris Anderson, nos proporcione una guía sobre cómo hablar en público es más que interesante.

'TED Talks, The official TED guide to public speaking' es esa guía, una guía que, aunque pone mayor foco en las TED Talks, constituye en realidad un manual sobre storytelling y cómo actuar en público. Una guía que, además, viene salpicada de vez en cuanto por pequeñas anécdotas y explicaciones que nos permiten entrever el funcionamiento de TED y la preparación de los 'speakers'.

El libro, desde luego, no decepciona, y es una gran explicación de las mejores prácticas para actuar en público ilustradas con las charlas de los speakers más destacados de TED.

El libro se compone de 21 capítulos agrupados en cinco partes.
  • 'FOUNDATION': Sirve a modo de introducción con algunos aspectos básicos como la importancia de la comunicación, la necesidad de definir bien el mensaje, la idea central que se quiere transmitir y algunos errores comunes a evitar. Los capítulos de esta parte son:  

    • 'PRESENTATION LITERACY: The Skill You Can Build'
    • 'IDEA BUILDING: The Gift in Every Great Talk'
    • 'COMMON TRAPS: Four Talk Styles to Avoid'
    • 'THE THROUGHLINE: What's Your Point'

  • 'TALK TOOLS': en que explica técnicas concretas para cinco aspectos generales y fundamentales de casi cualquier charla: conectar con el público, contar historias, saber explicar conceptos complejos o desconocidos para el público, persuadir y convencer y la capacidad para sorprender e inspirar. Dedica un capítulo a cada uno de estos puntos: 

    • 'CONNECTION: Get Personal'
    • 'NARRATION: The Irresistible Allure of Stories'
    • 'EXPLANATION: How to Explain Tough Concepts'
    • 'PERSUASION: Reason Can Change Minds Forever'
    • 'REVELATION: Take My Breath Away'

  • 'PREPARATION PROCESS': en esta parte y la siguiente recorre el proceso que acompaña una charla. En esta parte, en concreto, se centra en la preparación de la misma, lo que sucede antes, a veces mucho antes, de llegar al escenario. Y así, nos habla sobre la preparación de los soportes visuales, la decisión acerca de memorizar o no el discurso, los ensayos y cómo plantear la apertura y el cierre de la charla. 

    • 'VISUALS: Those Slides Hurt!'
    • 'SCRIPTING: Memorize or Not to Memorize?'
    • 'RUN-THROUGHS: Wait, I Need a Rehearse?'
    • 'OPEN AND CLOSE: What Kind of Impression Would You Like to Make?'

  • 'ON STAGE': en esta parte, aborda el momento de la verdad, el momento en que se está en el escenario. Y trata desde la problemática de cómo ir vestido o técnicas para controlar los nervios, hasta el tono de voz, las herramientas de apoyo y el formato de la charla. Cinco capítulos sirven para tratar estas temáticas: 

    • 'WARDROBE: What Should I Wear?'
    • 'MENTAL PREP: How Do I Control My Nerves?'
    • 'SETUP: Lectern, Confidence, Monitor, Note Cards, or (Gulp) Nothing?'
    • 'VOICE AND PRESENCE: Give Your Words the Life They Deserve'
    • 'FORMAT INNOVATION: The Promise (and Peril) of Full-Spectrum Talks'

  • 'REFLECTION': una última sección para reflexionar sobre la importancia de las charlas en público, sobre la comunicación, sobre el conocimiento humano y para presentar algunas de las nuevas ideas de evolución de TED y animar al lector a lanzarse a la piscina y atreverse a expresar sus propias ideas. 

    • 'TALK RENAISSANCE: The Interconnectedness of Knowledge'
    • 'WHY THIS MATTERS: The Interconnectedness of People'
    • 'YOUR TURN: The Philosopher's Secret'
Tengo que decir que este libro me ha gustado mucho. Creo que aborda todos los aspectos importantes de hablar en público, que aporta ideas concisas e interesantes sobre todos ellos, que además es ameno y que nos permite conocer un poco más el funcionamiento y planteamientos de TED, una organización y unas charlas que cada vez me gustan más.

Chris Anderson

(Fuente: Traducción y ligera elaboración propia de Wikipedia)

Chris Anderson
Chris Anderson, nacido en 1957, es el propietario de TED, una organización sin ánimo de lucro que proporciona charlas basadas en ideas y mantiene una conferencia anual en Vancouver, en la Columbia británica en Canada. Anteriormente fundó Future Publishing.

Anderson nació en una villa remota en Pakistán en 1957. Sus padres eran médicos misioneros y pasó la mayor parte de su juventud en Pakistán, India y Afganistán. Estudio en la Woodstock School en las montañas del Himalaya en India, antes de trasladarse a Monkton Combe School, en Bath, Inglaterra.

En la Universidad de Oxford estudió Física y luego cambió a Filosofía, Política y Economía, para finalmente obtener un grado en Filosofía en 1978.

Anderson inició una carrera como periodista trabajando en periódicos locales y posteriormente produciendo un servicio de noticias en las Seychelles.

De vuelta al Reino Unido en 1984, Anderson fue cautivado por la revolución del ordenador personal y se convirtió en editor de dos las primeras revistas británicas de la materia: Personal Computer Games y Zzap!64. Un año después fundó Future Publishing con un préstamo bancario de 25.000 dólares. La compañía se centró inicialmente en publicaciones especializadas sobre ordenadores pero luego se expandió a otras áreas como ciclismo, música, videojuegos, tecnología y diseño, duplicándo su tamaño anualmente durante siete años.

En 1994 Anderson se trasladó a los Estados Unidos donde creó Imagine Media, que publica Business 2.0 y creadora del popular sitio de usuarios de videojuegos IGN. Posteriormente Anderson fusionó sus dos compañías haciendo pública la nueva compañía en Londres en 1999 bajo el nombre de Future US. En su cima, publicaba 150 revistas y sitios web y empleaba a 2.000 personas. Este éxito permitió a Anderson crear una organización privada sin ánimo de lucro, The Sapling Foundation, con la esperanza de encontrar nuevas formas de afrontar aspectos complejos globales a traves de los medios, la tecnología, el emprendimiento y, sobre todo, las ideas.

En 2001, la fundación adquirió la TED Conference, por entonces una reunión anual de celebridades en los campos de la Tecnología, el Entretenimiento y el Diseño y que tenía lugar en Monterey, California. Anderson abandonó Future para dedicarse a tiempo completo a TED.

Extendió la cobertura de la conferencia para abarcar todo tipo de materias incluyendo ciencia, negocios, problemáticas globales y añadiendo un programa de socios así como el TED Prize que asigna a sus ganadores un millón de dólares y un deseo de cambiar el mundo.

En 2006, TED experimentó publicando algunas de sus charlas en Internet. Su éxito viral animó a Anderson a posicionar la organización como una iniciativa demedios dedicada a 'ideas que vale la pena propagar' y parte de una nueva era de diseminación de la información usando el poder del vídeo online. En Junio de 2015, la organización publicó su vídeo número 2.000 en línea. Las charlas son gratuitas y han sido traducidas a más de 100 idiomas con la ayuda de miles de voluntarios alrededor del mundo. El acceso ha crecido a aproximadamente hasta un billón de visionados al año.

Continuando con una estrategia de 'apertura radical', en 2000 Anderson introdujo la inictiva TEDx, permitiendo licencias gratuitas a organizadores locales que deseasen organizar sus eventos de estilo TED. Más de 10.000 eventos de ese estilo ya han tenido lugar, generando un archivo de 60.000 TEDx Talks. Tres años después, lanzó el programa TED-Ed, ofreciendo videos educativos gratuitos y herramientas para estudiantes y profesores.

En Mayo de 2016, Anderson publicó su libro 'TED Talks: The Official TED Guide to Public Speaking', que ofrece ideas y consejos para hablar en público.

Puedes saber más acerca del autor siguiéndole en twitter donde se identifica como @TEDchris.

miércoles, 3 de mayo de 2017

Inteligencia artificial, la inspiración y la metáfora



La promesa de la Inteligencia Artificial, la forma en que ésta se cuenta, se vende y se entiende por la mayoría de las personas, invita a pensar en una imitación de los mecanismos de la naturaleza.

El propio término inteligencia nos remite a la inteligencia humana. 

Algunas de sus técnicas también parecen exhibir esa analogía, esa inspiración. Así, nos encontramos con los algoritmos genéticos que reciben ese nombre porque de alguna manera cambian ('mutan') 'espontáneamente' en busca de una mejor adaptación o una mejor solución. 

También tenemos las muy en auge redes neuronales inspiradas en el funcionamiento de nuestro cerebro y nuestro sistema nervioso, con pequeños nodos, neuronas, interconectados entre sí. 

El propio nombre del más moderno machine learning nos hace pensar de nuevo en emular el aprendizaje, y muy en concreto, el aprendiza humano.

Pero ¿cuál es la relación que realmente guarda la inteligencia artificial con la naturaleza, con sus digamos correlatos biológicos?

En su libro 'Artificial Intelligence. What everyone needs to know', Jerry Kaplan nos dice:

[Artificial Intelligence] it's an engineering discipline whose relationship to biological organisms is mostly metaphorical and inspirational.

y explica de una forma muy clara y casi diría que brillante, que realmente la relación de las técnicas reales de la inteligencia artificial se limita a eso: la inspiración y la metáfora.

Inspiración porque es cierto que en su concepción inicial ha encontrado un punto de arranque en la forma en que la naturaleza resuelve esos problemas, y una metáfora porque de forma simplificada, el paralelismo entre la técnica real y cómo entendemos funciona la naturaleza (en realidad no lo sabemos bien) ayuda a comprender las ideas básicas y ayuda también al marketing de la tecnología.



Pero una vez que la tecnología está en marcha, ésta busca sus resultados y su aplicación práctica y, al hacerlo, se separa o al menos no se condiciona por cómo funcione realmente la naturaleza.

Jerry Kaplan nos ofrece un ejemplo muy gráfico con el caso de los aviones y las aves. Es cierto que los aviones, probablemente inspirados en las aves, tienen alas, pero el fundamento de su funcionamiento no tiene nada que ver con la forma en que vuela un pájaro (nòtese, por ejemplo, que las alas de los aviones no se mueven como sí lo hacen las de las aves).

Así ocurre también con la inteligencia artificial respecto de la inteligencia natural. La naturaleza ha servido de inspiración y se sigue utilizando como metáfora.

Pero solo eso: inspiración y metáfora.

A partir de ahí, tecnología e ingeniería.

martes, 2 de mayo de 2017

Colaboración: "Emprendedores sociales: el mercado como mecanismo de transformación social" en 'A un CLIC de las TIC'


La semana pasada publicaba en 'A un CLIC delas TIC', blog de la unidad de grandes cuentas de Telefónica, un artículo sobre emprendimiento social.

El artículo es fundamentalmente una entrevista a Ignacio Álvarez de Mon a propósito de su libro 'Emprendedores Sociales' que hemos tenido ocasión de comentar en este mismo blog recientemente.

Si quieres conocer lo que al autor tiene que decir, y cuáles han sido mis preguntas, ya sabes, no tienes más que leer el artículo en A un CLIC de las TIC.

lunes, 1 de mayo de 2017

¿Es la estadística inteligencia artificial?



El primer impulso es decir que no.

No asociamos la estadística a inteligencia artificial y creo que no debemos hacerlo.

Sin embargo, nos encontramos una y otra vez con la dificultad de saber realmente qué es inteligencia artificial y qué no lo es.

Volvemos a algo tratada hace muy poco en este blog: existen comportamientos de las máquinas y los algoritmos que de forma externa pueden parecer inteligentes y, sin embargo, nada tienen que ver con la inteligencia o al menos con la inteligencia humana. 

Aplican algoritmos deterministas sin la menor capacidad de improvisación ni verdadera adaptación y, por tanto, nos resistimos a verlos como inteligencia artificial, por brillantes y adecuados que puedan ser sus resultados.

Una de las disciplinas que aplicada correctamente y con la capacidad de computación actual puede producir una falsa sensación de inteligencia es la estadística.

En efecto, mediante técnicas estadísticas se pueden obtener conclusiones a partir de una serie de datos aparentemente sin sentido. No sólo eso, la estadística es capaz mediante las técnicas adecuadas, y a partir de una suficiente cantidad de datos de partida, ajustar modelos que permiten hacer luego predicciones con buenos resultados.

¿Es eso inteligencia?



one of the biggest surprises of the past few years has been that relatively simple statistical methods, when supplied with a sufficiently large number of examples, are capable of tasks that would otherwise appear to require comprehension and insigth.


Y menciona, por ejemplo, la traducción entre idiomas

Es fácil mezclar las cosas. Lo cierto es que la estadística es la base de Data Science. Y Data Science se mezcla con frecuencia con Big Data... y Big Data con Inteligencia Artificial.

Si adoptamos un enfoque meramente práctico, la discusión es irrelevante: en la medida que consiga resultados, buenos y en apariencia inteligentes resultados, ¿qué más da cómo llamemos a la estadística y si ésta es o no inteligencia artificial?

Sin embargo, si queremos entendernos, si queremos no mezclar las cosas, si no queremos que, en la confusión, 'se venda gato por liebre', es mejor mantener el rigor, las fronteras y las clasificaciones.

Y bajo ese punto de vista, no, la estadística no es inteligencia artificial. Es una potente disciplina, una gran disciplina, pero no es inteligencia artificial.