lunes, 30 de enero de 2017

Trabajar con robots



Es inevitable.

El auge de los robots es real... y creciente. Los robots no sólo entendidos como brazos articulados o como androides de forma humana...que también, sino robots entendidos como máquinas, algoritmos, como bots, como todo ente artificial, en fin, dotado de una cierta inteligencia.

Y si ese auge es imparable, y si los robots son capaces de asumir de forma ventajosa cada vez más labores, surge de forma inevitable la pregunta de qué nos queda a los humanos, cuál va a ser nuestro papel y cómo nos vamos a relacionar con esos robots cada vez más omnipresentes y cada vez más inteligentes. 

Preocupa muy especialmente, todo lo que tiene que ver con el empleo.

En su libro 'The inevitable', Kevin Kelly clasifica los trabajos en función de la capacidad para ser realizados por humanos o robots, y ofrece cuatro alternativas:

  • Trabajos que los humanos pueden hacer, pero los robots hacen mejor: algunos que ya están muy generalizados como la fabricación, el montaje, o el cálculo de impuestos, etc Pero también otros más avanzados como pilotar un avión o un coche, o analizar una radiografía.

  • Trabajos que los humanos no pueden hacer y los robots si: trabajos, por ejemplo, que requieren una altisima precisión como fabricar un chip, o una gran rapidez como la búsqueda en páginas web.

  • Trabajos que no sabíamos que queríamos: cosas tan variadas como dirigir un vehículo en Marte, imprimir en tela un patrón que nos envía un amigo, predecir epidemias, etc

  • Trabajos que sólo los humanos pueden hacer, inicialmente: y que el autor reduce a lo siguiente: decidir qué es lo que los humanos quieren hacer.

De esta clasificación parece desprenderse que poco, muy poco, espacio queda reservado para el ámbito exclusivamente humano. Es posible que nos falte imaginación y que, a medida que los robots se hagan cargo de nuestros empleos, surjan otros nuevos, plenamente humanos, que en este momento no somos capaces de de imaginar ni de nombrar.



Lo que parece en cualquier caso inevitable es la expansión de los robots y la necesidad, por tanto, de saber cómo relacionarnos con ellos y cómo trabajar con ellos.

Kevin Kelly, un poco más adelante, nos dice:

Everyone will have access to a personal robot, but simply owing one will not guarantee success. Rather, success will go to those who best optimize the process of working with bots and machines.

Es decir, supone que todos tendremos un robot personal, un robot que, como todos los robots, es, en muchos sentidos, más capaz que la persona. Por tanto, y siempre según el autor, una parte del éxito de cada uno de nosotros estará en saberse relacionar con ese robot personal y con todos los que nos rodeen. En la medida que sepamos 'sacar jugo' a esa relación, que sepamos conseguir que esa relación aumente nuestra productividad y nuestras posibilidades, que multiplique nuestras capacidades humanas, seremos exitosos.

En la medida que no sepamos entendernos con los robots, tendremos problemas.

Nuevas tecnologías, nuevos escenarios, nuevas habilidades...

viernes, 27 de enero de 2017

Efectos esperados e inesperados de la robotización



La generalización de la robotización y la inteligencia artificial, pensamos que nos va a traer una muchísima mayor productividad y, probablemente, una mucho mayor fiabilidad y calidad de lo producido. Es muy lógico y muy probable.

También pensamos que puede traer consigo desempleo o, al menos, la desaparición de muchos empleos actuales que, eventualmente, pueden compensarse con nuevos puestos de trabajo, ya sea por necesidad de nuevos perfiles o porque el aumento de productividad y riqueza genere nuevas necesidades, por ejemplo, en sector servicios. La desaparición de empleo tradicional es más que probable. Si el saldo neto de empleo es positivo o negativo parece estar más en discusión.

Sin embargo, hay una consecuencia de la robotización que no se me había ocurrido tener en cuenta hasta leer el libro 'The inevitable' de Kevin Kelly cuando cita a Rodney Brooks, antiguo profesor del MIT e inventor de la aspiradora Roomba.

Nos dice el señor Brooks:

Right now we think of manufacturing as happening in China. But as manufacturing costs sink because of robots, the costs of transportation becmome a far greater factor than the cost of production. Nearby will be cheap. So we'll get this network of locally franchised factories, where most things will be made within five miles of where they are needed.

Todo un cambio de la macroeconomía y casi de la geoestrategia. Al contrario de lo que ha sucedido en las últimas décadas, la fabricación podría volver en gran medida a los países desarrollados e, incluso, atomizarse, para minimizar costes de transporte. El razonamiento está claro: la robotización produce una tan grande disminución de los costes de producción que, en comparación, los costes que marcarán el precio serán los de transporte., Por tanto, es preferible acercar la producción hacia los centros de consumo, es decir, una polarización hacia los países desarrollados. 



Y, adicionalmente, una eventual atomización de la producción, en el sentido de que, en esa misma línea de disminución de costes de transporte, sea preferible factorías más pequeñas pero más cercanas a los principales núcleos de población.

Todo ello, por supuesto, siempre que no se produzca una disrupción en el transporte, disrupción que ahora mismo no creo atisbar, y que pudiera cambiar de nuevo el balance entre costes de producción y transporte.

miércoles, 25 de enero de 2017

La pasión que alimenta Internet

Internet surgió de entornos militares.

Pronto saltó a los contextos científicos y universitarios.

Luego se popularizó entre los comunes, entre las personas normales.

y, finalmente, se hizo comercial

¿Finalmente?

No del todo.

En realidad Internet, conserva trazas de todo de lo anterior y sigue evolucionando hacia no sabemos muy bien qué, de momento parece que hacia un Internet que también integra cosas que se interconectan entre sí y con las personas.

Pero en el momento en que nos encontramos, no es correcto ver una Internet dominada por los intereses comerciales.

De hecho, si atendemos a Kevin Kelly en su libro 'The inevitable' nos encontramos con que:

One study a few years ago found that only 40 percent of the web is commercially manufactured. The rest is fueled by duty or passion.

El deber y la pasión...

Según el estudio mencionado por Kelly, eso es lo que, todavía, alimenta mayoritariamente a Internet.

No está mal como una utopía al alcance de nuestras manos.. y nuestros teclados...

lunes, 23 de enero de 2017

Siempre en movimiento



En algunos contextos ya nos hemos acostumbrado.

No nos sorprende ya que Windows se actualice constantemente y que, como el popular sistema operativo, muchos de los programas o aplicaciones que tenemos instaladas en nuestros ordenadores, en nuestras tablets o en nuestros smartphones, se actualicen casi automáticamente con nuevas versiones.

No nos sorprende, evidentemente, que las aplicaciones web evolucionen. No nos sorprende tampoco que las redes sociales como Facebook, LinkedIn o Twitter introduzcan nuevas funciones con cierta continuidad.

Tampoco nos parece extraño ya el ritmo al que avanzan y se modernizan los smartphones, o al que crece el ancho de banda de nuestra conexión a Internet.

La tecnología avanza y las actualizaciones tienen cada vez un carácter más continuo, especialmente cuando se trata de software.

Y esta no es una situación momentánea. Cuando Kevin Kelly en su libro 'The inevitable' identifica las fuerzas tecnológicas que configurarán el futuro, la primera que trae a colación es la que denomina 'becoming' y que lo que refleja es ese proceso continuo de avanzar, de cambiar, de estar en camino hacia un algo móvil.

Y, así, nos dice:
Technological life in the future will be a series of endless upgrades

La tecnología, y nuestra vida con ella, será (ya es en gran medida), una evolución, una actualización continua.

Eso parece positivo en el sentido de ser un avance que no cesa y, esperemos, una mejora continua. Sin embargo, pone tensión en nosotros, los limitados humanos, porque, entre otras cosas y como reconoce el propio Kelly:

Endless Newbie is the new default for everyone, no matter your age or your experience

Es decir, la tecnologías evolucionan... y nosotros deberemos ponernos constantemente al día. Seremos siempre unos aprendices independientemente de la edad y la experiencia. La alerta y el interés y capacidad para el aprendizaje parecen cualidades ineludibles para tener éxito, casi para simplemente adaptarnos, en este nuevo entorno. Dífil para todos, pero muy especialmente para las personas que van tendiendo años, que van envejeciendo...

Es a un tiempo, pues, motivador e intimidante. Pero Kevin Kelly es tecno-optimista, así que nos ofrece una perspectiva inspiradora y nos augura que lo mejor aún está por venir.

The things we will make will be constantly relentlessly becoming something else. And the coolest stuff of all has not been invented yet.

Lo mejor está por venir...pero debemos prepararnos para ello. Estemos alerta, interactuemos, leamos, aprendamos... continuamente...

viernes, 20 de enero de 2017

Un poco de Deep Learning con Daniel Graupé

En 'Deep Learning Neural Networks' tenemos un austero y bastante conciso libro de texto sobre redes neuronales y su aplicación en deep learning. No se detiene el autor en florituras ni se adorna lo más mínimo. Simplemente, explica los conceptos de una manera en general breve y directa.

El libro nos habla básicamente de tres cosas: los mecanismos comunes en redes neuronales, la descripción de las topologías más comunes y una serie de casos de estudio sencillos realizados por estudiantes de un curso del que el autor, Daniel Graupe, es profesor. Y, para ello, se estructura en nueve capítulos:

  • 'Deep learning neural networks': donde define lo que es una red neuronal y hace un repaso histórico del desarrollo de esta disciplina.

  • 'Basic concepts of neural networks': donde explica una serie de conceptos/mecanismos comunes en redes neuronales: el principio de Hebb, el Perceptrón, la memoria asociativa, el principio de "todo para el ganador" y la Integral de Convolución.

  • 'Back Propagation': Explica las redes de back propagation, el algoritmo definido por Rumelhart, y algunas modificaciones posteriores como el sesgo.

  • 'The Cognitron and Neocognitrón': explica estas dos redes, la segunda una evolución de la primera, definidas por Fukushima y empleadas fundamentalmente en el reconocimiento de patrones.

  • 'Deep Learning Convolutional Neural Networks': nos habla de ConvNet, la red de convolución definida por Yann LeCun y su equipo en 1998, y que según el autor es la más popular en deep learning. A esta red dedica ya algo más de espacio que a las anteriores para hablarnos de su arquitectura y luego desarrollar el funcionamiento de los componentes como las capas de convolución, la retropropagación, la unidad de rectificación lineal, las capas de pooling, el dropout y la capa de salida.

  • 'LAMSTAR-1 and LAMSTAR-2 Neural Networks': el capítulo más extenso donde describe las redes LAMSTAR, diseñadas y patentadas por el autor, inspiradas en el funcionamiento del sistema nervioso central y utilizadas fundamentalmente como memoria a gran escala para el almacenamiento y recuperación de información. Nos detalla su estructura y paso a paso cómo se realiza el ajuste y aprendizaje

  • 'Other Neural Networks for Deep Learning': nos cuenta, de forma más resumida, las características de otras redes neuronales, en concreto, las Máquinas de Boltzman, las redes recurrentes (Deep Recurrent Learning Neural Networks) y las Wavelet.

  • 'Case Studies': Es una breve explicación de 20 casos de estudio realizados por estudiantes de cursos del autor. De estos casos de estudio se añade además, en un apéndice, el código fuente.

  • 'Concluding comments': Hace un resumen del libro y unos comentarios finales.

Lo mejor de 'Deep Learning Neural Networks' es, probablemente, lo ordenado y directo que es, cómo estructura y clasifica el material de un forma clara y precisa. A cambio, quizá le falta un poco de contexto, un poco más de explicación y, los más especialistas, probablemente echen de menos también algo más de profundidad en la explicación de las redes salvo, tal vez, en el caso de las redes LAMSTAR una brevedad que, sin embargo, agradecerán probablemente aquellos que se acerquen a este libro como una primera introducción.

En conjunto, nos hallamos ante un tratado sobre redes neuronales en deep learning breve y austero pero útil y creo que bastante eficaz.

Daniel Graupé

(Fuente: Traducción y ligera elaboración propia de su currículum en el Departamento de Energía Eléctrica y Computadores de la Universidad de Illinois en Chicago)

Daniel Graupé
Daniel Graupe es profesor emérito de Ingeniería Eléctrica y Computadores, profesor emérito de Bioingeniería y profesor emérito adjunto de Neurología y Medicina de rehabilitación en la Universidad de Illinois en Chicago donde co-dirige el laboratorio de procesamiento de imagen y de señal. Es miembro del IEEE. Graduado por Technion, Israel Institute of Technology y doctorado en ingeniería eléctrica por la Universidad de Liverpool.

Fue editor asociado de la revista 'IEEE Transactions on Circuits and Systems' con responsabilidad en procesado de señal y de 'IEEE Transactions on Neural Systems and Rehabilitation Engineering'. Actualmente es editor asociado de 'International Journal of Software Engineering and Knowledge Engineering' con responsabilidad en redes neuronales, de 'Neurological Research' con responsabilidad en neuroingeniería, de 'Psychline' y miembro del comité consultivo de 'BAM (Basic & Appl. Myology)'.

Es miembro del comité ejecutivo de la International Society of Bioelectromagnetism y participa en varios comités de la EEE's Signal Processing Society and Bioengineering society.

Es autor de cuatro libros de texto sobre sus campos de investigación, así como de capítulos de otros libros y 90 artículos en revistas científicas y más de 120 artículos en actas de conferencias científicas.

Antes de unirse a la Universidad de Illinois fue profesor distinguido del Illinois Institute of Technology en Chicago y ha sido profesor visitante de la University of California en Berkeley, de la Medical School of Tel-Aviv University en Israel, en el Swiss Federal Institute of Technology en Zurich, en University of Notre Dame, en Academia Sinica en Pekín y en la Northwestern University en Evanston.

Está en posesión de más de 20 patentes americanas y varias de otros paises.

Sus áreas de interés incluyen: sistemas de control, análisis de series temporales, procesado de señal, control biomédico, redes neuronales, filtrado adaptativo ciego, wavelets y stimulación eléctrica.

Ficha técnica:

EDITORIAL: World Scientific
AÑO: 2016
ISBN:  978-981-3146-44-0
PAGINAS: 280

Artículos de este blog relacionados

miércoles, 18 de enero de 2017

Cuando lo que importa es más lo artificial y menos la inteligencia

La inspiración de la inteligencia artificial ha sido el cerebro humano o, quizá mejor, su inteligencia, su forma de razonar y comportarse, una mecánica que le permite aprender, intuir, conectar hechos complejos e inciertos...

Algunas técnicas de la inteligencia artificial, típicamente las redes neuronales, de hecho, nacen de una cierta metáfora tecnológica, una suerte de analogía que intenta mediante diseños que imitan la naturaleza conexionista del sistema nervioso, conseguir resultados similares.

Y, de hecho, y más en los últimos tiempos, parece que esa imitación empieza a tener importantes éxitos y aún mayores expectativas.

Sin embargo, y paradójicamente, puede que a veces lo que deseemos de la inteligencia artificial sea que, precisamente, sea más artificial y menos humana porque, al fin y al cabo, y aunque nuestro cerebro es absolutamente sorprendente, también es imperfecto y, en ese sentido, mejorable.

En un punto de su libro 'The inevitable', Kevin Kelly razona sobre la inteligencia artificial y su aplicación en los coches autónomos y en ese pasaje nos dice:


One of the advantages of having AIs drive our cars is that they won't drive like humans, with our easily distracted minds.


En efecto, uno de los posibles defectos de nuestro cerebro es que se cansa, que pierde atención y eso, en labores como la conducción, es peligroso. Sin embargo, un cerebro artificial no se cansa ni disminuye su atención y eso le podría permitir, siendo igual el resto de condiciones, mayores dosis de seguridad y fiabilidad.

Probablemente, no convenga ser dogmáticos y las mejores soluciones sean mixtas, aprovechando lo mejor de lo más artificial de las máquinas, su potencia, su fiabilidad, su 'perfección' y mezclándolo con algoritmos que se acerquen a lo mejor del pensamiento humano: su razonamiento abstracto, su creatividad, su intuición, su capacidad de improvisación...

lunes, 16 de enero de 2017

Civilizar la tecnología

¿Tenemos la sensación a veces de que el ritmo de evolución tecnológica, de novedades e, incluso, comportamientos a ellas asociados, nos desborda?

Puede haber una explicación, una explicación que no sólo tiene que ver con el evidente progreso acelerado en que nos encontramos inmersos sino que está en relación, más bien, con nuestra capacidad para asimilar esas novedades, como individuos y como sociedad, nuestra capacidad para adaptar nuestros comportamientos, nuestras normas, nuestra etiqueta... puede que incluso nuestra ética.

Kevin Kelly, en su libro 'The inevitable' parece apuntar en esa línea cuando dice:

We are morphing so fast that our ability to invent new things outpaces the rate we can civilize them.

Es significativa esa expresión, 'civilizar' referido a la tecnología. En su libro, Kelly se refiere más bien a la adaptación y racionalización de nuestro comportamiento, y pone como ejemplo cómo nos acostumbramos a limitar de alguna forma cuándo podíamos llamar con el móvil (no estoy tan seguro de que esa etiqueta esté tan desarrollada como Kelly supone :) ) frente al uso indiscriminado y permanente que hacemos hoy día de twitter o la mensajería.

Piensa Kelly que con el tiempo encontraremos la forma de gestionar adecuadamente esas nuevas herramientas.

Y estoy de acuerdo pero, sin embargo, creo que la expresión de 'civilizar la tecnología' que el autor nos propone es más profunda que el análisis que el propio autor hace.

Al hablar de civilizar, creo que podemos incluir, y es mucho más relevante, responder a los desafíos éticos que nos plantean las nuevas tecnologías.

Pensemos en los dilemas morales e incluso legales que plantea la edición genética, o los coches autopilotados, o el conocimiento profundo de las personas vía Big Data e Inteligencia Artificial.

Si, eso de 'civilizar' es algo mucho, mucho más profundo que racionalizar el uso del móvil o twitter.

Pero en lo que acierta completamente Kevin Kelly es en señalar que la tecnología avanza mucho más rápido que su civilización.

viernes, 13 de enero de 2017

La cuarta revolución industrial según Klaus Schwab

'The Fourth Industrial Revolution' es un documento a medio camino entre el libro y el informe, una explicación sistemática, que no profunda, sobre el concepto de Industria 4.0 o Cuarta Revolución Industrial que el World Economic Forum, con su fundador y presidente a la cabeza (el autor), identifican como una transformación radical del sistema productivo, pero también de los negocios y la sociedad, como consecuencia del exponencial crecimiento de las tecnologías, fundamentalmente las de naturaleza digital aunque incluyendo otras más biológicas, aunque sin duda influidas por lo digital, como son la genética o la nanotecnología.

El libro se estructura en tres grandes capítulos:
  • 'The Fourth Industrial revolution': un capítulo muy breve que intenta explicar lo que es la cuarta revolución industrial y argumentar que se trata de un fenómeno que ya está entre nosotros y que provoca cambios profundos y sistémicos.

  • 'Drivers': donde se identifican y describen brevemente las tecnologías clave, tecnologías que se agrupan en tres secciones, las de naturaleza física (vehículos autónomos, impresión 3D, robótica avanzada y nuevos materiales), las digitales (Internet de las Cosas, Blockchain y las plataformas) y las biológicas (edición genética).

  • 'Impacto': donde, como el título expresa claramente, se analiza el impacto de estas tecnologías desde varios puntos de vista

    • Economía: fundamentalmente crecimiento, empleo y la naturaleza del trabajo

    • Negocios: identificando cuatro elementos como son las expectativas de los clientes, los productos enriquecidos con datos, la innovación colaborativa y nuevos modelos operativos

    • Globalización vs Localización: en lo relativo a gobiernos y administraciones, a regiones y ciudades y a la seguridad internacional

    • Sociedad: analizando comunidades y desigualdades

    • Individuo: abordando fundamentalmente la temática de las conexiones entre personas y de la privacidad de la información.
Finaliza el libro con un anexo en que se habla de 23 cambios concretos, valorando la probabilidad de ocurrencia hacia 2025 que los expertos les asignan y las consecuencias negativas y positivas que cabe esperar de ellos.

'The Fourth Industrial Revolution' es un libro interesante por los fenómenos que describe y las consecuencias que estudia, aunque tanto las tecnologías como los impactos se tratan de forma algo superficial y aunque, en mi opinión, el autor no logra dar una definición clara de qué entiende por Cuarta Revolución Industrial que parece, simplemente, como un agregado del impacto de todas las nuevas tecnologías de múltiples disciplinas.

Klaus Schawb

(Fuente: Elaboración propia de material en Wikipedia)

Klaus Schwab
Klaus Martin Schwab es un ingeniero, economista y empresario alemán conocido por ser el fundador y presidente ejecutivo del Foro Económico Mundial.

Nació el 30 de Marzo de 1938 en Ravensburg, Alemania.

Tiene un doctorado en Economía por la Universidad de Friburgo, un doctorado en Ingeniería por el Instituto Federal de Tecnología de Suiza y un máster en Administración Pública por la Escuela John F. Kennedy de Administración de la Universidad de Harvard.

Fue profesor de Política de Negocios en la Universidad de Ginebra desde 1972 a 2002. Es autor de varios libros y desde 1979 publica el Informe sobre Competitividad Global que estima el potencial de incremento de productividad y crecimiento económico de los paises. El informe se basa en una metodología desarrollada por el propio Schwab que mide la competitividad, no sólo en términos de productividad sino también con criterios de sostenibilidad.

Desde 1996 a 1998 fue Vicepresidente del Comité para Planificación del Desarrollo de las Naciones Unidas.

En 1971, Schwab fundó el Foro Económico Mundial como una organización sin fines de lucro, fundación dedicada a mejorar la situación del mundo, más tarde la construcción de hoy en la asociación mundial de empresas, políticos, intelectuales y dirigentes.

En 1998, Schwab y su esposa fundaron la Schwab Foundation for Social Entrepreneurship, una organización sin fines de lucro con sede en Ginebra, Suiza.

En 2004, Schwab fundó una nueva fundación, el Foro de Jóvenes Líderes Globales, que pretende reunir a más de 1000 personas menores de 40 años que han demostrado su compromiso con la mejora de la situación del mundo, y animarles a trabajar juntos en el lapso de cinco años para identificar y comprender el cambio global.

En el año 2010 fue reconocido por la Fundación Internacional de Jóvenes Líderes con la distinción de "Referente de la Humanidad".

Ficha técnica:

AUTOR: Klaus Schwab
AÑO: 2016
ISBN:  978-1-944835-01-9
PAGINAS: 199

Artículos de este blog relacionados

miércoles, 11 de enero de 2017

Deep Learning, algo más que redes neuronales

Cuando hace unas pocas fechas elucubrábamos sobre las definiciones de deep learning, una de los elementos poco claros era si deep learning es un nuevo nombre para las redes neuronales o se trata de un subconjunto de ellas, quizá una aplicación de ellas.

Una afirmación de Daniel Graupe en 'Deep Learning Neural Networks' parece disipar las dudas. Dice:

Deep learning can also be achieved with non-NN (non-neural networks) architectures, such as SVM (Support Vector Machines), which are general in range of applications, but usually slow.

Según esto, no hay identificación: deep learning es una cosa y redes neuronales otra...aunque parece que frecuentemente se solapan...

¿Todo el mundo opina lo mismo?


martes, 10 de enero de 2017

Colaboración: "La Luna ya no es suficiente: Elon Musk y la conquista de Marte" en 'A un Clic de las TIC'



La semana pasada publicaba en A un CLIC de las TIC el artículo titulado 'La Luna ya no es suficiente: Elon Musk y la conquista de Marte' donde hablo de un tema ya tratado en este blog: los planes de Elon Musk y SpaceX para colonizar Marte.

Pero, en este caso, juego un poco con las palabras y la metáfora...

¿Te gustaría leerlo?

Pues sigue este enlace...


lunes, 9 de enero de 2017

Redes neuronales: quizá no tan cerca del cerebro humano

Una de las explicaciones básicas sobre las redes neuronales, y probablemente uno de sus primeros atractivos, dejando a un lado sus resultados, es que se inspiran en el cerebro humano y en el sistema nervioso.

Si ambos están constituidos por neuronas, que, reciben impulsos en las dendritas, los procesan y transmiten el resultado por los axones que se unen a otras neuronas, las redes neuronales artificiales están formados por unos nodos (que emulan a las neuronas) que reciben unos inputs a través de las conexiones de entrada (algo así como las dendritas), los procesan y transmiten el resultado por las conexiones salientes (algo así como los axones).

 Esta metáfora, es la que inspira las redes neuronales artificiales y la que parece explicar, si es que explicar es la palabra, que las redes neuronales puedan conseguir resultados más cercanos a la inteligencia y al comportamiento humanos.

Sin embargo, parece que cuando se avanza en las redes neuronales artificiales, y muy en especial, en las que se emplean en deep learning. comienzan a existir divergencias no menores.

Al menos esos es lo que se deduce leyendo a Daniel Graupe, quien, en su libro 'Deep Learning Neural Networks', nos dice:

whereas Neural Networks are supposed to follow or to approximate a general architecture based on the organization of the biological Central Nervous System (CNS), many if not most of the DLNN (Deep Learning Neural Networks) architectures have little in common with any CNS architecture. Also, our knowledge of the CNN itself is stll too weak to allow modeling of its deep learning.

Dos cosas a tener en cuenta. Por un lado, el diseño de redes neuronales para deep learning emplea otros algoritmos no conexionistas para complementar el algoritnmo básico de la red neuronal, todo ello en busca del más que comprensible objetivo de obtener mejores resultados.

Por otro lado, el reconocimiento explícito de que aún no conocemos suficientemente el sistema nervioso central como para emularlo en un algoritmo, neuronal o del tipo que sea.

La parte fea, y digo fea más que mala, es que parece que las redes neuronales de deep learning son algo menos neuronales de lo que creíamos y que se utilizan de forma menos elegante de lo que la metáfora de partida hacía suponer.

Pero también hay una lectura más que positiva. Por una parte, que se obtienen resultados... y eso es bueno en sí mismo.  Por otro es que, si somos capaces de obtener resultados positivos, e incluso sorprendentes, con un modelo burdo del sistema nervioso central ¿qué no seremos capaces de hacer cuando lo conozcamos mejor?

Queda camino, desde luego... y un camino que se presume apasionante...

viernes, 6 de enero de 2017

#macrotweet: ¿Nos superan los avance tecnológicos?

We are morphing so fast that our ability to invent new things outpaces the rate we can civilize them.



Kevin Kelly
'The inevitable'

miércoles, 4 de enero de 2017

Dos definiciones y alguna duda sobre Deep Learning Neural Networks

Es lo que tiene el 'buzzword' o cuando el marketing se mezcla en exceso con la tecnología... que al final es muy difícil saber de qué estamos hablando exactamente.

En busca de entender el concepto exacto (suponiendo que exista esa presunta exactitud) de 'Deep Learning' y su relación con las redes neuronales me encuentro en el libro 'Deep Learning Neural Networks' de Daniel Graupe dos definiciones. Una que la aporta el propio autor y que nos dice:

Deep Learning Neural networks (DLNNs) may be defined as neural network architectures that can facilitate deep learning, retrieval and analysis of data that is deeply buried in input information and not otherwise easily retrievable.

Y otra que atribuye a Dong y Yu en una publicación de 2014 y que reza:

DLNNs are a class of machine learning techniques that exploit many layers of nonlinear information processing for supervised and unsupervised feature extraction and transformation and for pattern analysis and classification.

Ninguna es del todo clarificadora, pero entre ambas parecen deducirse los siguientes elementos:

  • Son un subconjunto dentro de las redes neuronales
  • ... y un subconjunto dentro de las técnicas de machine learning
  • Se aplican en problemas complejos difícilmente atacables por otras vías
  • Se usan para extraer información en el sentido de reconocimiento y clasificación de patrones
  • Utilizan algoritmos no lineales
  • Aparentemente, tiene muchas capas (¿de ahí lo de 'deep'?)



En otras fuentes he oído cosas como que:
  • Deep learning no es más que un nuevo nombre, algo así como un 'rebranding', para el concepto de red neuronal
  • La diferencia entre el Deep learning y el machine learning es que en machine learning se entrena a los algoritmos mientras que en Deep learning aprenden por sí mismos

Está claro que todas estas afirmaciones no pueden ser ciertas al mismo tiempo. 

Por ejemplo, hay arquitecturas de redes neuronales que funcionan con entrenamiento y otras aprenden solas, luego según la última afirmación, unas serían técnicas de machine learning y otras de deep learning... pero entonces no puede ser Deep Learning un sinónimo de red neuronal.

Por otro lado, parece a priori muy restrictivo pensar que las redes neuronales usadas en Deep Learning sólo se utilicen para reconocer patrones

Esta figura, de NVIDIA parece sugerir un Deep Learning con entrenamiento




En fin, que la idea es muy interesante y prometedora, y las soluciones aún más...pero quizá se necesite un poco de dedicación adicional el cerrar el concepto con rigor y exactitud.


lunes, 2 de enero de 2017

La razón de la existencia de las redes neuronales



Las redes neuronales, una de las herramientas típicas de la inteligencia artificial, y el corazón del tan de moda Deep Learning, plantean un esquema radicalmente diferente a la resolución de problemas al de cualquier otra solución algorítmica. 

En lugar de definir un algoritmo claro que establezca de forma comprensible por un humano la relación entre entradas y salidas, el razonamiento subyacente y el 'modus operandi', tal como hace el software 'normal' o incluso otras variedades de la inteligencia artificial como los sistemas expertos, las redes neuronales adoptan un enfoque mucho más de caja negra: se crean estructuras interconectadas de nodos y se ajustan los pesos de las conexiones.

La idea es imitar el comportamiento del cerebro humano pero, tal y como en el fondo nos pasa con ese nuestro cerebro humano, al final no entendemos realmente el funcionamiento, el porqué para una entrada se produce una salida. De alguna forma son como 'cajas negras' que, aunque dan resultados correctos e, incluso, inteligentes y, más aún, adaptativos, no sabemos muy bien por qué. Y es curioso, porque a nivel micro, nodo a nodo, el funcionamiento es clarísimo e incluso sencillo, pero el comportamiento 'macro' es oscuro...

La inspiración en el cerebro humano es clara y sugerente pero ¿por qué adoptar un enfoque tan, digamos, extraño, tan incomprensible?

La respuesta puede ser muy simple. En el inicio del libro 'Deep learning Neural Networks' de Daniel Graupe, me encuentro la siguiente frase.


Deep learning neural networks were created for its potential in solving problems in fields where current methods, theoretical or algorithmic were insufficient.

Es decir, la respuesta es muy simple: se crean las redes neuronales porque no hemos encontrado la forma de resolver esos problemas de otro modo y, sin embargo, las redes neuronales sí son capaces...

Unas líneas más adelante, el autor, remacha:

Deep learning is needed when simple methods are insufficient

donde la única aportación adicional relevante es la calificación de 'simples' para el resto de métodos.

Reconocimiento de imágenes mediante red neuronal


¿Es posible que algún día podamos resolver por otras vías que no sean redes neuronales algunos de esos problemas complejos? ¡Quien sabe! Probablemente sí, al menos en algunos casos.

De todas formas, habida cuenta de los resultados que están proporcionando las redes neuronales, y del brillante futuro que se les augura a 'ellas' y el deep learning, quizá haya sido una suerte el que no encontráramos antes otros algoritmos...