miércoles, 29 de abril de 2020

La pila hardware y software del deep learning


Cuando un área de conocimiento es compleja, es muy bueno encontrar estructura, esquemas sencillos y asimilables que nos ayuden a ver el bosque, sin perdernos entre árboles.

En esa línea, el Deep Learning es una tecnología (o conjunto de tecnologías) compleja: No sólo son complejos los modelos y los algoritmos usados (a pesar de que tras ellos, con cierta frecuencia, se escondan intuiciones más sencillas y asimilables de lo que podíamos esperar) sino que también tiene cierta complejidad el hardware y se trata, finalmente, de un sector confuso por lo dinámico y la variedad de propuestas de implementación software que aparecen en forma de librerías, APIs, herramientas.

Por eso es muy de agradecer el muy claro y sencillo esquema que nos ofrece François Chollet en su libro 'Deep Learning con Python'.

El autor nos explica el panorama global de una forma esquemática y sencilla que se apoya en la siguiente figura:



Vamos a recorrer de abajo arriba, en cuatro fases o capas, los elementos que ahí aparecen.


El Hardware


En la parte inferior nos encontramos con el hardware y ahí se marcan dos ramas claras. Por un lado tenemos la de los ordenadores de propósito general en que sus microprocesadores son las tradicionales CPU (Central Processing Unit) 'de toda la vida'.

En la columna de la izquierda nos encontramos, por su parte, las GPU (Graphical Processing Unit), un tipo de procesador especializado, procedente del campo de los videojuegos (de ahí su nombre) pero que se adapta a las mil maravillas  a las necesidades computacionales del machine learning por su capacidad para manejar grandes cantidades de datos sobre los que se realizan operaciones muy repetitivas.


Librerías de bajo nivel


Manejando directamente el hardware se encuentran librerías especializadas de bajo nivel. 

Así, en la columna de la CPU , el autor nos menciona BLAS (Basic Linear Algebra Subprograms), una librería escrita en FORTRAN y que realiza operaciones sobre vectores y tensores como la suma de vectores, el producto escalar o el producto de punto. 

Por otro lado tenemos Eigen, una librería escrita en C++ que se dedica también a álgebra de matrices y vectores y en la que se apoya, por ejemplo, TensorFlow.

En el lado de las GPU nos encontramos con  CUDA (Compute Unified Device Architecture) una plataforma de computación paralela creada por NVIDIA y que se usa con una variante del lenguaje C. aunque también, y mediante wrappers, se puede usar desde Python, FORTRAN o Java. Además, tenemos cuDNN (cuda Deep Neural Network), también de NVIDIA, que proporciona operaciones específicas para redes neuronales profundas, como la convolución. 


Las implementaciones de soporte. Librerías intermedias


Apoyadas en éstas, tenemos librerías que ya funcionan tanto sobre CPU como GPU. 

Así, nos encontramos con TensorFlow una librería de código abierto creada por Google para la creación y entrenamiento de redes neuronales.

En segundo lugar tenemos Theano, una librería matemática Python apoyada en NumPy y especialmente dedicada a operaciones sobre matrices, una librería concebida como proyecto open source inicialmente lanzado por el MILA (Montreal Institute for Learning Algorithms).

 Y en tercer lugar CNTK (CogNitive ToolKit) de Microsoft, ahora rebautizada como Microsoft Cognitive Toolkit, también de código abierto y también dedicada a la construcción de redes neuronales.


Y, finalmente, Keras


Y en la cima de la pila tenemos Keras, de la cual es creador el propio François Chollet, una librería de muy alto nivel escrita en Python para el desarrollo rápido de modelos de Deep Learning.


Conclusión


Evidentemente, el dibujo de la pila y la breve explicación que hemos aportado sobre lo que significa cada elemento, no nos hace sabios en Deep Learning, pero sí proporciona una buena orientación en el mar de nombres extraños que rodean a ésta, como a tantas otras tecnología.

A mí, al menos, me ha venido muy bien.

lunes, 27 de abril de 2020

¿Pueden las máquinas pensar? Leyendo a Alan Turing


En ocasiones me gusta acudir a las fuentes originales. Hoy en día en que vivimos un 'verano' de la Inteligencia Artificial, en que ésta, especialmente en su faceta de Machine Learning, ocupa infinidad de artículos, portadas, eventos y programas, se menciona una y otra vez a Alan Turing.

Cuando se intenta explicar qué es la Inteligencia Artificial o en qué consiste, simplemente, la inteligencia, se trae a colación el famoso Test de Turing. Un test que siempre me ha parecido, más que un verdadero test, una forma de intentar explicar qué es la Inteligencia Artificial y una forma que, por desgracia, creo que no aplica del todo al concepto actual de Inteligencia Artificial.

Pero esa percepción podía estar mediatizada, ya que nunca había leído la explicación original de Alan Turing y la mención a su famoso test siempre había sido una mención casi anecdótica y superficial por terceros que lo usan a modo de introducción en artículos o presentaciones para luego continuar explicando, por otro derroteros, conceptos diversos de computación e Inteligencia Artificial.

Portada original de Mind
Pero hoy he leído al mismísimo Alan Turing y la explicación de su famoso test. El artículo donde por primera vez se habló del test, se titulaba 'Computing machinery and Intelligence' y fue publicado en Octubre de 1950 en la revista Mind, una revista, por cierto, dedicada a psicología y filosofía y cabe decir que, en efecto, a pesar de que en el artículo se trasparente el conocimiento técnico que Turing poseía, el discurso y el estilo parecen más propios de un debate filosófico que tecnológico.


El Test de Turing


La verdad es que en el artículo original Turing 'le da muchas vueltas' a la formulación del test, cuál es la pregunta a contestar y si vale la pena hacerse esa pregunta. Pero, en esencia, y como es bastante conocido, describe un escenario con tres actores: A (un hombre), B (una mujer) y C (el entrevistador). La misión del entrevistador (que no puede ver a A ni a B, y que tampoco les escucha directamente sino escritas de alguna forma y que tampoco permita identificar la letra) es saber quién es el hombre y quién la mujer. El objetivo de A es hacer fallar al interrogador y el objetivo de B es ayudarle a dar con la respuesta correcta. 

El test de Turing
Ese juego se puede jugar, primero siendo A y B realmente personas, realmente un hombre y una mujer y luego se cambia y en lugar de A juega una máquina. Y la pregunta que se formula realmente es: "¿Se equivocará el interrogador con la misma frecuencia cuando A es un hombre que cuando A es una máquina?" y esa pregunta sustituye a la original "¿Pueden las máquinas pensar?" porque se entiende que si la máquina ha logrado 'engañar' tantas veces al entrevistador como la persona, es que es capaz de pensar.

Luego dedica unas cuatro páginas del artículo a explicar, más en concepto que en tecnología, en qué consisten los ordenadores digitales y concluye que, en el juego, y como máquinas, deberían participar computadores digitales.


La posición de Turing


Alan Turing
Aunque reconoce que no puede probarlo, Turing declara abiertamente su confianza en que las máquinas conseguirán superar su test en un plazo de 50 años (es decir, estaría hablando del año 2000). 

Dice que, en realidad, no tiene sentido contestar a la pregunta exacta "Can machines think?" pero, a cambio, afirma de forma explícita:

I believe that in about fifty years' time it will be possible, to programme computers [] to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning.

Y el tiempo parece haberle dado la razón.


Las objeciones


En el artículo original, Turing dedica mucho espacio, realmente es a lo que más tiempo dedica, a censar y refutar las posibles objeciones que pueden surgir hacia su posición o hacia la posibilidad de las máquinas piensen.

No voy a detallar las argumentaciones y refutaciones, para eso está el artículo original, pero al menos sí las voy a censar. Son nueve posibles objeciones:

  • La objeción teológica: Dios ha dado alma a las personas pero no a animales o máquinas, así que éstas no pueden pensar.

  • La objeción del avestruz (en realidad, se traduciría como cabeza en la arena): sería espantoso que las máquinas pensasen.

  • La objeción matemática: centrada sobre todo en el teorema del Godel que dice que en cualquier sistema lógico suficientemente potente, existen afirmaciones que no pueden ser ni afirmadas ni refutadas dentro de ese sistema a menos que el propio sistema sea inconsistente.

  • El argumento de la conciencia: que de alguna forma exige que la máquina tenga conciencia de sí misma y también emociones para reconocerle la capacidad de pensar.

  • Argumentos de diferentes discapacidades: que toman la forma de aunque la máquina puede hacer tal y tal cosa, seguro que no puede hacer esta otra, es decir, no piensa como un humano.

  • La objeción de Lady Lovelace: en que se refiere a la mismísima Ada Lovelace, cuando este famoso personaje afirma, a propósito de la máquina analítica de Babbage, que la máquina sólo puede hacer aquello que las personas le indiquen explícitamente que haga.

  • Argumento acerca de la continuidad del sistema nervioso: en que se destaca que el sistema nervioso humano es un sistema continuo mientas los computadores digitales son máquinas de estados discretos, por lo que no cabría esperar que un computador digital mimetizase el comportamiento humano.

  • Argumento de la informalidad del comportamiento: que viene a afirmar que el comportamiento humano no se puede reducir a un conjunto de reglas, como sí ocurre en las máquinas.

  • El argumento de la percepción extrasensorial: un argumento sorprendente que viene a indicar que podría ser posible la comunicación telepática entre el entrevistador y los participantes humanos, pero no sería posible con la máquina, lo cual podría invalidar el test.

He resumido mucho las objeciones y no he incluido cómo las valora o rebate Turing porque eso sería casi reproducir el artículo y no era el objetivo de este post.


Máquinas que aprenden


La última parte del artículo se dedica a hablar de máquinas capaces de aprender con una propuesta en que, más que empeñarnos en hacer una máquina capaz de emular a un humano adulto, sugiere crear una máquina capaz de emular a un niño y, a partir de ahí, aprender.


Instead of trying to produce a programme to simulate the adult mind, why not rather try to produce one which simulates child's?


A la luz de lo que está sucediendo actualmente con la Inteligencia Artificial y el Machine Learning, esta parte del artículo original es sorprendentemente moderna.


Mis impresiones


De la lectura del artículo de Turing me quedo con algunas ideas y conclusiones.

La primera, y aunque quizá la menos importante, es que el test de Turing, tal y como muchas veces he visto descrito en libros, artículos, charlas y eventos profesionales, no se corresponde del todo con la propuesta original de Turing, sino que es como una versión simplificada del real, probablemente debido a no haberse preocupado las fuentes de leer la verdadera propuesta de Turing. Además, a veces no se destaca suficientemente que lo que Turing realmente quería contestar es si las máquinas pueden pensar. Como esa pregunta formulada de esa forma llevaría a una definición muy difícil de lo que es una máquina y lo que es pensar lo cual es complejo y puede que sin respuesta universal, en su lugar, el test es un sustituto, una forma más concreta de formular la cuestión.

Luego me llama la atención cierta interesante doble dialéctica que se produce en el artículo leído hoy en día. Una primera dialéctica o tensión entre contrarios que me produce es una sensación al mismo tiempo de modernidad y de antigüedad. Se trata de un artículo publicado hace casi setenta años y, en cierto sentido tiene ese aire de cosa ya pasada tanto en lo técnico como también en el estilo. Y sin embargo, al mismo tiempo, sigue conservando una gran validez e interés y algunos planteamientos como el que destacaba al final del aprendizaje, son todavía muy actuales.

La otra tensión dialéctica es en el lenguaje filosófico frente a técnico. El estilo general del artículo me recuerda más a una discusión filosófica que técnica. Cabe recordar que la revista Mind se dedicaba a psicología y filosofía. Sin embargo, en ciertos pasajes del artículo queda muy claro el conocimiento y rigor que atesoraba Turing en lo matemático y lo técnico.

Y una última valoración, más allá del artículo en sí, es que vale la pena leer a los clásicos. Y no sólo en lo técnico sino en cualquier disciplina del saber humano. Leer a los clásicos, a aquellos que más han influido en el pensamiento humano de cualquier naturaleza es interesante, refrescante y saludable. Es saludable porque podemos leer la propuesta original sin las deformaciones que el paso por diferentes interlocutores introduce. Alcanzamos un saber y un entendimiento más puros. Y es interesante y refrescante porque si estas personas han sido tan influyentes es por algo. En general, las obras originales de los clásicos, atesoran una  calidad y una fuerza que de alguna forma explica por qué, de hecho, se convirtieron en clásicos.

Y Turing, y su artículo "Computing Machinery and Intelligence" son uno de esos clásicos.

viernes, 24 de abril de 2020

La visión del Humanismo Digital de Luis Pardo Céspedes

En 'Viaje al centro del humanismo digital' su autor, Luis Pardo Céspedes, nos da su particular visión de cómo se deben incardinar los avances tecnológicos, particularmente en materia de tecnología digital, con una concepción en que lo importante deben seguir siendo las personas. Una visión que el autor plantea como un viaje en tres etapas u órbitas: en el centro las personas, en una capa intermedia la empresa y la actividad profesional y, finalmente, en la capa más externa, el espacio público, el gobierno y la política. Una visión que es optimista y que nos dice que, más que a una sociedad líquida, como afirmaba Baumann, nos conducimos a, o estamos ya, en un mundo gaseoso.

El libro se compone de diez capítulos, agrupados en tres partes. En la primera parte, que ocupa los tres primeros capítulos, se ocupa un poco de centrar la situación, con las oportunidades y amenzas que ofrece lo digital. La segunda parte, cinco capítulos, es el viaje propiamente dicho que promete el título y que recorre las órbitas de dentro afuera parándose también en una órbita intermedia que es la educación. Y la tercera parte, más breve con solo dos capítulos, es una reafirmación de lo humano y un resumen de lo aprendido.

Con todo esto, la estructura del libro es la que sigue:
  • 'Introducción:' Una corta entrada en clave absolutamente personal, en que el autor repasa muy rápidamente su trayectoria profesional y lo que le lleva a escribir el libro.

  • 'PRIMERA PARTE. EL FANTASMA DEL FUTURO DIGITAL:' Una primera parte en que hace un cierto balance de nuestro presente digital, con sus oportunidades y amenazas, y hace declaración de optimismo y visión humanista. Incluye tres capítulos: 

    • '1. Nos visitan los fantasmas del pasado, presente y futuro ¡digital!:' Apoyándose en la metáfora de los fantasmas del pasado, presente y futuro del cuento de Navidad de Dickens, hace una apuesta por el futuro, pero enlazando con el pasado algunas de cuyas preguntas siguen plenamente vigentes, y atentos a las señales del presente. Y termina afirmando que la tecnología siempre será un medio y no un fin, que siempre estará en las personas.

    • '2. La adaptación al medio:' Recuerda el aserto de Darwin según el cual la especie que sobrevive es la que mejor se adapta y afirma que justamente adaptación es lo que se necesita en este cambio que el autor califica como acelerado y que, en sus palabras, nos hace pasar de un 'Homo analógicus' a un 'Homo digitalis'. Repasa la importancia que en este mundo digital tienen los datos. Y finaliza apostando, no solo por la adaptación, sino por la vida, en una declaración final que nos insta a no ser, en sus palabras, 'zombies'.

    • '3. De 1984 a 2058 : una anti-distopía:' Parte de la distopía presentada por Orwell en su famoso '1984', para seguir con Asimov y, a partir de ahí, volver a tocar el tema de los datos y finalizar con una visión optimista, esperanzada en un futuro en el que ve más oportunidades que riesgos, y hacer una apuesta profundamente humanista.

  • 'SEGUNDA PARTE. UN VIAJE AL CENTRO DEL HUMANISMO DIGITAL:' en que desarrolla el viaje al centro del humanismo digital propiamente dicho, siguiendo, de dentro a afuera, el camino a través de las órbitas. 

    • '4. La expansión gaseosa: un modelo de círculos concéntricos:' un muy breve capítulo en que presenta el modelo en tres órbitas.

    • '5. El núcleo: la órbita individual:' Primera etapa del viaje, en la órbita más importante, la nuclear: las personas. En ella revisa las relaciones humanas, las necesidades y los valores. Vuelve a hacer gala de optimismo afirmando que la tecnología nos hará mejores pero advirtiendo también de la responsabilidad individual, para ejercer nuestro propio liderazgo y marcar el rumbo.

    • '6. La órbita profesional y empresarial:' Salta a la segunda órbita, la que tiene que ver con la actividad profesional y ataca el capítulo más largo de todo el libro. Comienza repasando la situación actual y previsible del empleo. Luego adopta una perspectiva si se quiere más estratégica para analizar los impactos en cadena de valor y modelos de negocio. Continua con un análisis de las empresas en una doble perspectiva: una que mira hacia el interior de la empresa y su organización, y otra externa que se centra en el cliente. Y finaliza hablando del emprendimiento digital y haciendo de nuevo una llamada a la acción y a ese emprendimiento que evite que caigamos en el inmovilismo, en el 'zombieness'.

    • '7. Entre órbitas: la educación:' Hace un intermedio en el viaje para abordar una especie de subórbita intermedia: la que tiene que ver con la educación y donde, como cabía esperar, afirma la importancia de la educación en el nuevo mundo digital, una educación que implica también desaprender y que debe ser transversal. Finaliza hablando de ciencia y tecnología y constatando como en el mundo digital muchas labores por ejemplo de cálculo serán realizadas por las máquinas por lo que debemos centrarnos en desarrollar las habilidades plenamente humanas.

    • '8. El círculo exterior: la órbita política:' Y salta finalmente a la órbita exterior, la que tiene que ver con lo público y lo político pero donde comienza apoyándose de nuevo en los valores. Habla de las ciudades inteligentes y también de la privacidad, seguridad y libertad. Y finaliza pidiendo la adaptación de los gobiernos al mundo digital y el compromiso político

  • 'TERCERA PARTE. VUELTA AL CENTRO: SIEMPRE LA PERSONA:

    • '9. La evolución de la digitalización en nuestro entorno:' Con base en el informe DESI ('Digital Economy and Society Index') analiza la situación internacional en materia de conectividad, capital humano, uso de servicios de internet por las personas, integración de la tecnología digital en los negocios, servicios públicos digitales e investigación y desarrollo en nuevas tecnologías.

    • '10. ¡Paso a la acción!:' Primero resume en 84 frases a modo de tuits los mensajes fundamentales del libro y luego hace una vigorosa llamada a la acción estructurada en un decálogo de acciones que incluyen el empezar por uno mismo, la formación, la adaptación y el hacer un plan.
Intercaladas entre el texto principal de el libro, el autor nos presenta las historias de una larga serie de personajes, con sus circunstancias y dificultades y retos. Algunos personajes se identifican claramente con nombres y apellidos y otros nos queda la duda de si se trata de personajes reales con nombres ficticios o meros arquetipos.

'Viaje al centro del humanismo digital' es una mezcla de análisis de la situación en que nos encontramos actualmente en relación a la revolución digital, acompañado de ideas sobre cómo reaccionar ante ella en los ámbitos personal, profesional y público que constituyen las órbitas del modelo. Una visión que es humanista, más que por un tratamiento basado en ciencias sociales o humanísticas, por la apuesta por las personas y por lo humano, que en cierto modo queda reforzado por esas historias de personas reales o realistas, al menos.

'Viaje al centro del humanismo digital' es un libro actual, ameno y muy fácil de leer. Un libro optimista pero realista, y una apuesta por las personas dentro de la revolución digital.

Luis Pardo Céspedes

(Fuente: Ficha de autor en Verssus)

Luis Pardo Céspedes
Licenciado en Dirección y Administración de Empresas por la European University, MBA por EADA y PDG por IESE. Tras haber ocupado diversos puestos de responsabilidad en el ámbito de la dirección general, en 2001 se incorporó a SAGE, líder mundial en software de gestión para empresas, asumiendo diferentes cargos de mayor responsabilidad a nivel europeo y mundial.

Desde 2014 es consejero delegado de SAGE Iberia. En 2017 la compañía lo reconoció como mejor líder global y el diario La Razón le otorgó la distinción de CEO del año por su contribución a la mejora de la competitividad en las empresas. En 2018 ha sido distinguido con la Medalla de Oro al Mérito en el Trabajo por la Asociación Europea de Economía y Competitividad.

Es miembro del consejo de acción empresarial de la CEOE, del Governing Council de la Cámara de Comercio Británica en España y presidente del Madrid International Business Club. Es también business angel y advisor de diferentes startups. Asimismo, imparte conferencias -en el marco de eventos empresariales y en escuelas de negocios- relacionadas con el liderazgo, la innovación, la transformación digital y la de negocios.

Puede saber más sobre el visitando su página oficial o siguiéndole en tiwter donde se presenta como @luispardo1.

Ficha técnica:

EDITORIAL: Verssus
AÑO: 2019 
ISBN: 978-8494944369
PAGINAS: 176

jueves, 23 de abril de 2020

Vídeo: Día del libro 2020 - Hace justo un año terminé de escribir "La Carrera Digital"



Hoy es 23 de Abril de 2020. Hoy es el día del libro 2020. Y hoy hace justo un año que terminé de escribir mi primer libro 'La Carrera Digital'.

No es del todo casual que finalizase la redacción del libro justo en el día del libro. Fue en parte una casualidad, en parte una elección.

Había finalizado el grueso de la redacción casi un mes antes, pero estaba aún haciendo pequeñas correcciones en las galeradas y me restaba por escribir la sección de agradecimientos. Podía haberla escrito, quizá, un día o dos antes, o también un día o dos después. En cualquier caso, habría sido a mediados / finales de Abril.

Pero el que fuera 23 de Abril lo busqué, por un cierto halo de romanticismo, por parecerme un bonito detalle, el finalizar mi primera obra justo el día del libro.

Y hoy, un año después, con el libro ya publicado hace meses, y habiendo empezado la escritura del siguiente, he querido recordarlo hoy, 23 de Abril de 2020, hoy Dia del Libro 2020, hoy, un año después...

Vídeos relacionados

Canal Youtube

Si te interesa ver más vídeos sobre tecnología, procesos de negocio, modelos de negocio, innovación y transformación digital, puedes visitar mi Canal Youtube.

miércoles, 22 de abril de 2020

Las sencillas intuiciones tras los complejos algoritmos


Cuando se entienden bien, que suele coincidir con cuando se explican bien, las cosas suelen ser más sencillas de lo que parecen a primera vista.

La intuición que nos une


Y aunque ese aserto tan vago creo que es de validez bastante general, en este momento 'las cosas' en que ahora estoy pensando son matemáticas y son algoritmos y, más concretamente, los algoritmos que se esconden, cada vez menos eso si, tras el Machine Learning y la Inteligencia Artificial.

Y las cosas, los algoritmos, bien entendidos, son algo menos complejos de lo que parece. Más intuitivos, incluso. Y es que, al fin y al cabo, aunque probablemente muy inteligente, detrás de la invención de un algoritmo está una persona o un grupo de personas y, al final, a las personas nos une más de lo que nos separa, en muchos sentidos.

Y en este caso, nos une la intuición.


La idea tras el cálculo infinitesimal. Una historia de juventud.


Hace ya muchos años, más de los que me gustaría, era yo estudiante de primer curso de Ingeniería y, como sabe todo aquel que haya estudiado ingeniería al menos hace unos años, 'el coco' de primero de carrera era el Cálculo Infinitesimal. La verdad, y prefiero no explayarme mucho, el profesor que me toó en suerte, tampoco ayudaba mucho a la comprensión. Pero no recuerdo muy bien la razón, el caso es que hacia final de curso, nos unieron a los varios grupos que constituíamos el primer curso en una especie de clases de refuerzo conjuntas. Y para esas clases, asignaron esta vez a un profesor que tenía justa fama de ser el mejor profesor de cálculo de la escuela. Y de éste sí diré el apellido, Huidobro, porque el nombre, francamente, no lo recuerdo, aunque sí su imagen.

Y no se me olvida, y lo he contado en mi entorno varias veces, que siempre, antes de iniciar las frecuentísimas demostraciones de los frecuentísimos teoremas, antes de sumergirse en símbolos y artificios, siempre decía 'La idea es...' y nos explicaba a continuación de forma simple y muy intuitiva lo que se estaba buscando con ese teorema, por qué era importante y por que´cabía intuir que era cierto. Nos hacía ponernos, en cierto modo, en la cabeza del matemático que demostró por primera vez el teorema, un teorema que el matemático ya había intuido, más bien ya había llegado a la convicción de que era cierto, y sólo buscaba ya el camino para demostrarlo. Y si, el camino, la demostración en sí, podía ser larga y compleja, pero la idea, el verdadero objetivo, era claro e intuitivo.


El descenso de gradiente


Recientemente, leyendo el libro 'Deep Learning con Python' de François Chollet me he topado un algoritmo, el descenso de gradiente ('gradient descent') que, aunque de forma borrosa, recuerdo haber estudiado en la carrera, no sé si con ese nombre. Un algoritmo que se usa, entre otras cosas, en redes neuronales, y más en concreto, en Deep Learning, como algoritmo de entrenamiento en aprendizaje supervisado. Un algoritmo que, en el fondo, lo que busca es minimizar el valor de una función que, en este caso, representaría la diferencia entre el resultado esperado en la red neuronal y el valor que actualmente tenemos. 

Visualización del Descenso de Gradiente
Si uno ve la formulación en álgebra tensorial o incluso el código en Python, lo fácil es perderse y no entender nada. Y si a uno se lo explica alguien que no sabe transmitir la idea principal, lo más probable es que nos perdamos aún más.

Pero si a uno se lo explican intuitivamente, y usando un figura que la que se muestra a la izquierda, la cosa adquiere otro cariz. En ese figura, tenemos sólo dos variables, las dos ejes horizontales, digamos X y Y que serían los pesos a ajustar en la red neuronal. Y la función, que representa, la diferencia entre la salida de la red y el objetivo sería el eje Z (la altura, para entendernos). Y lo que queremos es que esa altura sea lo menor posible, que significará que la red está lo más cerca posible de la respuesta acertada. 

Pues 'lo único' que hace el descenso de gradiente es buscar bajar las pendientes de la superficie bidimensional que se forma, hasta encontrar el valle, el mínimo, tal y como se observa en la línea negra que caracolea por la superficie coloreada. Y para conseguirlo el algoritmo va, en pasos sucesivos, moviendo 'de a pocos' los pesos de la red, es decir, el valor de los ejes X e Y ennuestra figura. Es decir, se mueve un poquito en horizontal (un poquito en el eje X y otro poquito en el eje Y) para desplazarse a un punto de la superficie un poco 'mas bajito', un poco más cerca del mínimo, un poco más cerca del objetivo. Así las veces que haga falta hasta alcanzar ese mínimo.

Vale, en una red neuronal las dimensiones no son dos (X e Y) sino muchas, muchísimas más. Y vale, saber cómo ajustar los pesos para bajar la pendiente tiene algo de dificultad y necesidad de conocimientos matemáticos. Pero no es difícil, al menos, captar la idea, la intuición detrás del algoritmo. Una intuición que es sencilla, razonable, fácil de entender y de comunicar. Y suficiente para la inmensa mayoría de la gente, incluso muchos científicos de datos y muchos desarrolladores de inteligencia artificial.


Y al final, la belleza


No siempre es fácil conocer esas intuiciones porque, con mucha frecuencia, quien conoce el algoritmo o tampoco conoce estas intuiciones, o nos las sabe explicar o puede que incluso no quiera.

Pero esas intuiciones existen y, su existencia demuestra no sólo que la ciencia y la tecnología son asequibles, no sólo que la ciencia y la tecnología pueden ser intuitivas, sino que, además, que la ciencia y la tecnología, incluso los algoritmos, pueden ser bellos, muy bellos...

lunes, 20 de abril de 2020

Software, robotización y sentido común


Aunque las tecnologías avancen, aunque las velocidades de computación se multipliquen y aunque aparezcan algoritmos cada vez más sofisticados, en el mundo del software, probablemente como en cualquier otra disciplina humana, al final existen una serie de criterios comunes, una serie de principios o buenas prácticas que son aplicables de forma generalizada y que muchas veces, al final son casi mera experiencia y mero sentido común.

Por motivos profesionales que no vienen al caso, estoy revisitando la teoría referente a la Ingeniería del Software, una disciplina que ya podemos considerar veterana y sobre la que, de hecho, poco se publica ya, si no es en su vertiente Agile. Y en esa labor estoy leyendo el voluminoso libro 'Software Engineering. Global Edition' de Ian Sommerville, bien organizado y escrito, pero que aporta pocas sorpresas porque, en efecto, la Ingeniería de Software, no sé si disfruta o sufre ya de una cierta estabilidad.


Ocho buenas prácticas de Ingeniería Software


Y me voy a detener en un punto del libro en que señala ocho líneas maestras o buenas prácticas de diseño y desarrollo para conseguir la fiabilidad ('reliability') de un sistema software. Son estas:

  • Control de la visibilidad de la información: Nos aconseja que la información, es decir, las variables, tengan la menor visibilidad posible, primando las variables locales antes que las globales, y dentro de las locales, que su ámbito sea lo más limitado posible. Una buena práctica tradicional donde las haya, que elimina acoplamientos entre componentes favoreciendo la modularidad y que, además, disminuye la probabilidad de que un componente, inadvertidamente, altere el valor de una de forma perjudicial para otra parte del software.

  • Chequear la validez de todas las entradas: Es decir, nunca suponer que los datos van a tener el formato o rango correctos. Si un dato debe ser numérico o fecha, comprobar que es así antes de trabajar con ese dato. Si un dato debe estar comprendido en un cierto rango, por ejemplo, ser mayor que cero, comprobar que es así antes de utilizarlo. Esto es farragoso y aumenta, es cierto, el tiempo de desarrollo e incluso, ligeramente, el de ejecución, pero convierte al software en mucho más robusto y vale la pena sin dudarlo.

  • Proporcionar un manejador para todas las excepciones: Una regla fundamental de robustez es capturar todos los errores y excepciones y darles un tratamiento, lo más específico posible pero, en cualquier caso, algún tipo de tratamiento que evite que el sistema, simplemente 'se caiga' o que el usuario o un administrador no puedan saber lo que ha ocurrido.

  • Minimizar el uso de construcciones propensas a error: En software, como en muchas otras actividades humanas, quizá mucho más que en otras actividades humanas, lo más sencillo funciona mejor. Esta recomendación, algo ambigua, va en el sentido, precisamente, de utilizar los tipos de datos, estructuras, algoritmos, etc más sencillos posible y con menor probabilidad de error. Se nos proporciona como ejemplo la recomendación de, en lo posible, usar números enteros en lugar de números decimales en coma flotante, ya que estos segundos generan muchos errores, por ejemplo, por redondeos. Otra construcción que se desaconseja es el uso explícito de memoria dinámica, algo que ha dado muchísimos quebraderos de cabeza, por ejemplo, a los programadores en C o C++.

  • Proporcionar capacidades de rearranque: Se trata de que, ya que a pesar de todas las precauciones, en ocasiones el software falla, quizá en medio de una transacción o procesamiento largo, al menos dar la capacidad de rearrancar y retomar el trabajo donde se encontraba, para lo cual es necesario de alguna forma registrar la información intermedia y tener medios para recuperarla tras el rearranque.

  • Comprobar las fronteras de matrices: Se trata de, cada vez que trabajemos con un matriz o vector, comprobar que cualquier índice de acceso a un elemento concreto, está dentro de los límites previstos. Si tenemos un vector de 100 elementos, no podemos acceder al elemento 200 ni, por supuesto a un índice negativo. Particularmente peligroso es el acceso al primer y último elemento de la matriz porque, según el lenguaje de programación, el primer elemento puede tener como índice  0 o 1 y es fácil equivocarse. Un acceso fuera del rango puede llevar a acceder a zonas de memoria no permitidas provocando errores serios.

  • Incluir 'timeouts' en llamadas a componentes externos: En ocasiones, los sistemas externos fallan, tardan demasiado o son las propias comunicaciones las que fallan o van lentas. Y pueden fallar sin dar un error explícito. Por eso, no conviene esperar indefinidamente a que se complete la invocación a un servicio o sistema externo sino que se debe introducir un temporizador que, caso de vencerse, eleve la excepción correspondiente o provoque el tratamiento de error que proceda.

  • Nominar a todas las constantes que representan valores reales: La idea es doble. Por un lado, no incluir 'a fuego' un valor en el código, sino ponerlo en función de una variable o constante y usarlo referenciando a esa variable o constante. Pero además, la directriz lo que sugiere es que cualquier elemento de la vida real, incluso aunque no preveamos que vaya a cambiar, lo convirtamos en una variable o constante. Así, por ejemplo, podríamos incluir como constante el tipo básico del IVA. De esta forma,ningún valor queda en piedra en el código sino que es siempre una constante o variable. Y además, si a pesar de nuestras expectativas, el valor de ese elemento de la vida real, en este caso el tipo básico del IVA, cambia, el software puede modificarse por una simple configuración, sin actualizar el código.

Para cualquier que haya trabajado en el mundo del software, todos o la mayor parte de estos consejos le resultan familiares y bien conocidos. El libro del que los recojo está impreso en 2016, hace cuatro años, y es una décima edición, así que el cuerpo de doctrina principal lleva muchos más años escrito. Es más, su autor, es un profesor ya retirado.

Y, sin embargo, las ocho directrices están plenamente vigentes.


Buenas prácticas en robotización software


De hecho, ahora que personalmente dedico bastante energías al mundo de la robotización software y, específicamente, al RPA (Robotic Process Automation), incluyendo ya muchas horas de formación a alumnos de empresas o jóvenes en busca de primer empleo, comparo estas directrices con las que se aplican en el mundo de la robotización...y hay una enorme, casi total, coincidencia.

También disponemos de ámbitos de variables que se aconseja sean locales, también se capturan excepciones, también se insta a procesar todos los errores y protegerse ante datos con formato incorrecto o fuera de rango (aunque en el caso de RPA esa labor con frecuencia viene dada ya desde sistemas externos), también se dispone de rearranque, también hay constantes en ficheros de configuración... Incluso, el líder del mercado UiPath, dispone de una plantilla, el Robotic Enterprise Framework una de cuyas misiones es, precisamente, ayudar a crear robots que ya traen de serie algunos de estos elementos como el tratamiento de ciertas excepciones, el rearranque o un trazado básico).

Y es que los robots software son, eso, software.

Y software llevamos ya muchos años construyéndolo, y algo hemos aprendido.


El sentido común


Al final, aunque la tecnología evoluciona, aunque hay nuevos sistemas, nuevas herramientas y nuevos algoritmos, la experiencia es la experiencia y el sentido común es el sentido común.

Y el sentido común es, o debería ser, universal y casi eterno.

viernes, 17 de abril de 2020

Conociendo el Growth Hacking con Luis Díaz del Dedo

En 'Growth Hacking. Supera el reto de crear productos digitales exponenciales' su autor, Luis Díaz del Dedo, nos cuenta muy en primera persona qué es el Growth Hacking y sobre todo, paso a paso, su personal manera de aplicarlo que se concentra mucho en las cuatro fases del funnel que nos propone.

El Growth Hacking es una filosofía de marketing digital muy centrada en los resultados, orientada a generar crecimiento de ventas e ingresos en productos digitales (muy especialmente ´servicios que se prestan fundamentalmente a través de una Web y/o una App) basándose para ello en acciones y experimentos de bajo coste y una estrecha aplicación de analítica web para comprobar la situación general del negocio, del marketing y de cada acción llevada a cabo.

De cara a la aplicación de esta filosofía, Luis Díaz del Dedo nos propone la aplicación de un funnel, de su propia definición, con cuatro fases: Adquisición y captación, Activación, Retención y, finalmente, Ingreso, aunque anima a que cada empresa defina el funnel que mejor se le ajuste. Tras unas ideas previas, la estructura central del libro nos explica cada fase del funnel, con los criterios a tener en cuenta, posibles acciones/experimentos y medición.

El libro se estructura en siete capítulos como sigue:
  • 'Introducción al growth hacking: 'un capítulo breve en que explica lo que es el 'Growth Hacking', su porqué y de paso presenta el libro en sí mismo.

  • 'Funnel de producto: ' Explica primero brevemente lo que es un funnel y luego presenta su funnel de producto explicando de forma concisa la idea y los criterios de paso de fase. A continuación nos sugiere algunas reglas a aplicar en la gestión de ese funnel para que sea efectiva, entre las que destacaría la selección rigurosa y profesional de los criterios de paso de fase para no engañarnos a nosotros mismos. Nos presenta también alguna métrica y, finalmente explica el concepto de 'user paths' (detalle de las acciones que realiza nuestro cliente/usuario) y cómo usarlos. En los siguientes cuatro capítulos recorre y explica en más detalle las tres primeras fases aunque no sigue un orden secuencial sino que las explica en el orden que considera más relevante para su comprensión.

  • 'Activación de usuarios: 'Esta etapa, que es la segunda del funnel, tiene como objetivo que el usuario entienda nuestro producto y lo llegue a usar. El autor no explica la importancia y gestión de la primera experiencia del usuario/cliente, cómo hacer fácil y efectivo el registro en la web o App, el proceso de 'onboarding' (que es cuando le explicamos al cliente el producto) y algunos criterios de paso de fase.

  • 'Introducción a la retención: ' esta fase es la tercera del funnel y se centra en que el usuario/cliente repita en el uso de nuestro producto.En este capítulo se dedica bastante espacio a explicar métricas y cómo medir la retención incluyendo la sugerencia de herramientas concretas. Hacia el final también se proporcionan palancas para mejorar la retención.

  • 'Retención: 'capítulo que profundiza más en la retención. Comienza hablando de hábitos y expone el modelo de Nir Eyal para la generación de hábitos en los usuarios. Luego profundiza, específicamente, en los disparadores (triggers).

  • 'Adquisición y captación: 'capítulo dedicado a lo que en realidad constituye la primera fase del funnel. Nos habla de viralidad, detallando el llamado factor K y luego explica las llamadas 'growth hacks', es decir, acciones que pueden generar mucho tráfico de forma puntual. Finaliza con una experiencia personal en este campo y con una propuesta de herramientas concretas.

  • 'Modelo de experimentación IAF (Iterativo de Alta Frecuencia): 'Y cierra el libro con este capítulo en que explica 'con pelos y señales' la forma en que el autor aplica la metodología detallando incluso la excel que usa para la gestión. Muy al final, nos propone algunas sugerencias para ayudarnos a tener ideas creativas a la hora de plantear experimentos y acciones.
Tal como lo percibo tras la lectura de este libro, el Growth Hacking, en sí mismo, no aporta grandes novedades conceptuales o teóricas. En el fondo es la aplicación del marketing digital muy apoyado en analítica web. Lo que sí se ve es un enfoque basado en la experimentación, muy realista, muy 'pegado a tierra', muy orientado a resultados y eso, más allá de la novedad teórica que ya digo que me parece escasa, es lo que le confiere mucho valor.

En cuanto al libro, se trata de un libro llano (aunque es menos sencillo de lo que parece a primera vista y algunos temas deben leerse despacio para no perder detalle), bien explicado y donde se percibe la experiencia de primera mano que tiene el autor, el realismo y la practicidad a la hora de aplicar el método, el entendimiento de los negocios y los clientes y, por qué no decirlo, el 'olfato' para tener ideas y diseñar experimentos que puedan proporcionar el ansiado crecimiento.

Muy interesante me parece también la indicación de métricas y sobre todo herramientas concretas, incluyendo la excel del autor.

Creo que si este libro es algo, esto es, sobre todo, que es muy práctico.

A quien trabaje en o le interese el marketing digital, creo que le vendrá muy bien leerlo.

Luis Díaz del Dedo

(Fuente: Ficha de profesor en KSchool)

Luis Díaz del Dedo
Luis Díaz del Dedo es Ingeniero Informático Superior y Licenciado en Administración y Dirección de Empresas que se dejó seducir por el apasionante mundo del marketing online y la creación de producto digital en todo su espectro.

Ha sido profesor en cinco universidades y en tres escuelas de negocio, ha formado decenas de startups y mentorizado emprendedores en casi todas las aceleradoras de primer nivel de España. Actualmente se dedica a ayudar a las grandes empresas a conseguir que sus productos digitales crezcan exponencialmente.

Es autor del libro 'Growth Hacking. Supera el reto de crear productos digitales exponenciales'.

Puedes saber más del autor visitando su página oficial o siguiéndole en twitter donde se identifica como @luisdiazdeldedo.

Ficha técnica:

EDITORIAL: Anaya Multimedia
AÑO: 2019 
ISBN: 978-8441541870
PAGINAS: 216

Artículos de este blog relacionados

miércoles, 15 de abril de 2020

Cuando el Deep Learning se haya ido: el legado del Deep Learning


Ninguna tecnología es eterna, y tampoco lo será el Deep Learning.

Hoy en día, seguramente, el Deep Learning es el gran protagonista del Machine learning, que es casi tanto como decir que es el gran protagonista de la Inteligencia Artificial que, a su vez, es casi tanto como decir que es el gran protagonista del panorama tecnológico actual, e incluso, de las fantasías tecnológicas actuales.

Mucho es lo que ha aportado el Deep learning en los últimos años, y mucho, seguramente, lo que todavía dará de sí, y las nuevas aplicaciones y soluciones que puede traer consigo.

Pero pasará. Como cualquier otra tecnología será superada. Hoy en día casi cuesta creerlo, y cuesta vislumbr hasta cuando sucederá...pero el Deep Learning pasará.

Sin embargo, dejará tras de si un legado, una forma de hacer algoritmia y de hacer Inteligencia Artificial que seguirá vigente tras la desaparición por obsolescencia. Al menos así lo cree François Chollet, creador de la famosa API Keras y autor del libro superventas 'Deep Learning con Python' que me encuentro leyendo ahora mismo.

Y tres son las cosas que ha aportado Deep Learning y que Chollet piensa le van a sobrevivir. Son éstas:

  • Simplicidad: una simplicidad que el autor localiza en la simplificación y automatización de la ingeniería de características ('features engineering') que ya mencionamos en el post anterior, que ahora se reduce a un puñado de operaciones entre tensores.

  • Adaptabilidad: en el sentido de permitir la paralelización del procesamiento aprovechando las capacidades de los GPU (Graphical Processr Unit) y los TPUs (Tensor Processing Unit) y, además, permitir el entrenamiento con conjuntos de datos de diverso tamaño.

  • Versatilidad y reutilización: En el sentido que en el Deep Learning, una vez entrenado ya un modelo y, al contrario de lo que sucede con otros algoritmos, se puede retomar el entrenamiento sin necesidad de empezar desde cero, además de poderse utilizar para propósitos diferentes del original..

Y ese es el legado que dejará tras de sí el Deep Learning, al menos según el pensamiento de François Chollet. De todas formas, parece que todavía es muy pronto para comprobarlo, que todavía el Deep Learning está en la cresta de la ola y seguirá estándolo durante una buena temporada.

lunes, 13 de abril de 2020

Motivos para el deep learning


He iniciado la lectura del libro 'Deep Learning con Python', traducción al castellano del libro escrito por François Chollet. Françoise es un ingeniero francés, investigador en Inteligencia Artificial, que trabaja actualmente  en Google  y que es conocido, sobre todo, por ser el creador de Keras, una muy popular API para la construcción de redes neuronales.

En el primer capítulo, y como es de esperar, hace una introducción donde, de forma muy sencilla, explica conceptos muy básicos y algo de historia de la inteligencia artificial, del machine learning y del deep learning.

Repasa, por ejemplo, los modelos probabilísticos con el naive Bayes y la regresión logística. Repasa el nacimiento de las redes neuronales y la aplicación del descenso de gradiente ('gradient descent'), las redes de convolución y el algoritmo de retropropagación ('backpropagation'). Pasa luego a los métodos kernel ('kernel methods') y las Support Vector Machines (SVM), a los árboles de decisión, para volver por fin a las redes neuronales, al auge de las redes de convolución ('convnets') y al nacimiento y auge del deep learning.

Una historia rápida y explicada de forma muy sencilla pero, en lo que me quería detener un poco más en este artículo es en las razones que sugiere Chollet para explicar el éxito actual del Deep Learning.

Estos son los argumentos que aporta.


¿En qué es diferente Deep learning de otros algoritmos?


En primer lugar y es bastante evidente, es que deep learning ha conseguido mucho mejores resultados que algoritmos anteriores en diversas tareas como en visión por computador o procesamiento de lenguaje natural.

Un segundo motivo que hace diferente al deep learning es que automatiza una tarea conocida como ingeniería de características ('feature engineering'). Se trata de una labor que consiste en procesar los datos en bruto para, apoyándose en cierto conocimiento del dominio del problema a resolver, extraer características relevantes que son luego utilizadas por los algoritmos de machine learning. En otros algoritmos se trata de un pre-procesado en que los humanos tienen que dedicar bastante esfuerzo. Sin embargo, según explica Chollet, en Deep Learning este tratamiento ya viene dentro del propio algoritmo.

Finalmente, Chollet argumenta que en Deep learning todas las capas de la red se entrenan y ajustan a la vez frente a los modelos de aprendizaje superficial ('shallow learning') que utilizan los denominados algoritmos voraces ('greedy algorithms') en los cuales se optimiza capa a capa.


¿Por qué ahora Deep Learning?


¿Y por qué precisamente ahora esta explosión?

En parte ya viene explicado por lo visto anteriormente, pero hay que tener en cuenta algún factor adicional. En concreto, Chollet identifica tres factores o dimensiones:

  • Hardware: donde la gran aportación es la aparición de los GPU ('Graphical Processing Units') procedentes de la industria de los videojuegos y su aplicación en machine learning donde aportan su gran capacidad de procesamiento y de trabajo en paralelo. El autor apunta como línea de futuro en materia de hardware al trabajo, de momento como investigación de las TPU ('Tensor Processing Unit') de Google.

  • Datos: la mayor parte de los algoritmos de machine learning y, en concreto, de deep learning, necesitan de enormes cantidades de datos para su entrenamiento. La adopción de Internet en general, y de los medios sociales en particular, con su enorme riqueza en imágenes, vídeos, textos, etc han sido una materia prima fundamental para el desarrollo del deep learning.

  • Mejoras algorítmicas: La tercera dimensión es algorítmica y ahí yo incluiría los temas apuntados en la sección anterior pero el autor avanza un poco más y detalla algunas mejoras algorítmicas más especificas como mejores funciones de activación en las redes neuronales, mejores esquemas de inicialización de pesos en la red y mejores esquemas de optimización.

Conclusión


Y esas son las razones que nos aporta Chollet. Parecen razonables y, además, las aporta alguien con reconocida autoridad y experiencia en la materia.

En cualquier caso, sean estas las únicas razones o haya otras, lo que es indudable es de la pujanza actual de la inteligencia artificial, del machine learnng y, específicamente, del deep learning.


viernes, 10 de abril de 2020

Enseñar y aprender en Escuelas de Negocio con Martensson, Bild y Nilsson

En 'Teaching and Learning at Business Schools' nos encontramos con una obra coral en que diferentes autores, todos ellos ligados, eso sí, a la enseñanza superior fundamentalmente en escuelas de negocio y todos ellos a su vez participantes de alguna manera en el programa ITP (International Teachers Program) exponen diversos aspectos tanto de la actividad docente como gestora en escuelas de negocio.

Las temáticas se agrupan en dos grandes bloques, uno orientado a la actividad dentro del aula y, por tanto, con una visión más de docencia y técnicas de enseñanza y una segunda más orientada a la gestión de programas ejecutivos tanto en su diseño como ejecución y al desarrollo del claustro.

Con esto, los 23 capítulos de que consta el libro, cada uno de diferente autoría, se estructuran de la siguiente manera:
  • 'PARTI INSIDE THE CLASSROOM:' es el bloque dedicado a la visión docente e incluye los siguiente trece capítulos: 

    • 'Chapter 1 Teacher as Facilitator of Learning:' Un capítulo que me ha gustado especialmente y que presenta al profesor como un facilitador. Afirma que para que se produzca el aprendizaje, el profesor tiene que conseguir que los contenidos tengan significado para los alumnos y sean memorables. Con esa idea presenta una serie de técnicas y propuestas para la gestión de la clase, desde sus inicios hasta su desarrollo y final, prestando atención tanto a elementos relacionados con los contenidos como a otros de lenguaje no verbal como el contacto visual o el tono de voz.

    • 'Chapter 2 Teaching Actively:' apuesta por un aprendiza activo y para ello presenta cuatro estrategias: implicar a los estudiantes desde el principio, ser un presentador amigable con el cerebro, promover el debate vivo y enfocado y hacer que los estudiantes aprendan unos de otros.

    • 'Chapter 3 My Biggest Mistakes in Teaching Cases (and Lessons Learned):' presenta, con base en la experiencia personal, varios errores que se pueden cometer en la enseñanza con el método del caso: preparación excesiva, preparación escasa, demostrar una teoría, búsqueda de participación de todos los estudiantes y preguntas con respuestas correctas o incorrectas.

    • 'Chapter 4 The Challenge of Teaching 'Soft' Subjects to MBAs: How Using Mini-Cases Can Help:' habla de la dificultad de enseñar habilidades 'soft' en el ámbito de un MBA y propone el uso de lo que denomina mini-casos, es decir, algo similar a los casos de negocio del método del caso tradicional pero de una longitud muy corta (una o dos páginas).

    • 'Chapter 5 Team Teaching:' analiza las ventajas y la mejor forma de acometer la ensañanza en equipo, es decir, con más de un instructor en el aula: explica el concepto, da indicaciones de cuándo usar esta estrategia y desarrolla diversos aspectos de cómo llevarlo a cabo.

    • 'Chapter 6 Transformative Management Education:' apuesta por una educación que desarrolle la imaginación, la intuición y la improvisación en directivos

    • 'Chapter 7 Acting as Being: Theatre as a Learning Method:' Explica cómo utilizar el teatro y las técnicas teatrales como como mecanismo para la enseñanza y el aprendizaje.

    • 'Chapter 8 Teaching Large Classes:' Acomete la problemática de enseñar en clases que pueden alcanzar los centenares de alumnos. Habla de aspectos como la evaluación, el establecimiento de reglas, el feedback a los alumnos, el uso de la tecnología, la participación, etc

    • 'Chapter 9 Diversity Dynamics Teaching:' Se enfoca en las problemáticas de la enseñanza con diversidad cultural, racial, género, etc y se basa mucho en la experiencia como docente mujer y de color de la autora de este capítulo concreto.

    • 'Chapter 10 Teaching and Learning in a Multicultural Environment: A Mild Polemic:' En una línea temática similar al anterior, ataca sobre todo los aspectos culturales y las implicaciones de la internacionalización creciente de los programas ejecutivos y hace algunas propuesta de metodología y técnicas.

    • 'Chapter 11 Damage Control and Tempered Change: Reflections on Working with Gender Issues in the Business School Classroom:' siguiendo con la temática de la diversidad, ahora se trata específicamente lo relativo al género para el que la autora de este capítulo también hace algunas propuestas.

    • 'Chapter 12 English in the Classroom: Meeting the Challenge of English-Medium Instruction in International Business Schools:' trata el tema del idioma, asumiendo que existe tanto en los alumnos como también en el profesorado, muchas personas para las cuales el Inglés no es su lengua materna.

    • 'Chapter 13 Ascending and Descending with a Dissertation Images of Tutoring Doctoral Students:' alejándose un poco de la temática principal del libro centrada en escuelas de negocio, en este capítulo se habla de estudiantes de doctorado y sobre todo, de cómo tutorizarlos. Habla de tipologías de tutores, de su rol, y da algunos consejos apoyados en imágenes procedentes del mundo de la escalada.


  • 'PART II OUTSIDE THE CLASSROOM:' la parte dedicada a la gestión de programas y desarrollo del claustro y que incluye los siguientes diez capítulos: 

    • 'Chapter 14 Program Design Management:' habla del diseño de programas ejecutivos para lo que propone una serte de proceso y también identifica lo que considera los aspectos más críticos a tener en cuenta. Y luego adopta una perspectiva más amplia para pensar ya no en un programa concreto sino en el porfolio de programas una escuela de negocio.

    • 'Chapter 15 Important Considerations when Starting Programs:' Se centra en un momento muy concreto, que es el inicio de un programa máster o ejecutivo y hace algunas propuestas como, por ejemplo, comunicar los principios rectores y la visión propia del aprendizaje, comunicar los objetivos del programa, establecer y negociar las reglas básicas, y las expectativas y crear un clima adecuado de aprendizaje.

    • 'Chapter 16 Managerial Competency and Learning Management:' Habla de las competencias necesarias para la gestión de programas formativos, para lo que comenta brevemente el modelo de EDHEC y las implicaciones en diferentes stakeholders.

    • 'Chapter 17 Getting and Giving Feedback:' Habla del feedback entre colegas profesores, por qué es importante y cómo llevarlo a cabo (a quién invitar, cómo hacer la observación, etc) y todo ello presentado en forma de diálogo entre dos profesores.

    • 'Chapter 18 Individual Profession Development Coaching:' Aborda otro aspecto del desarrollo del claustro como es el coaching del cual se analizan los factores críticos de éxito.

    • 'Chapter 19 Advice to a New Teacher:' Se identifican y desarrollan brevemente hasta dieciseis consejos que aportar a un nuevo profesor incluyendo, sólo a modo de ejemplo, el desarrollo de una filosofía de enseñanza, el hablar con colegas, tener confianza, dar feedbackk a los estudiantes, etc

    • 'Chapter 20 Business Schools International Networks for Faculty Development:' Habla de la importancia de las redes de colaboración internacionales para el desarrollo del claustro, para lo cual los autores gozan de amplia experiencia puesto que todos son participantes del programa ITP (International Teaching Program) y, de hecho, gran parte del contenido del capítulo se dedica a describir la evolución y experiencias de este programa.

    • 'Chapter 21 Pedagogical Leadership: Experiences From Three European Business Schools:' En formato de entrevista, se presentan las experiencias de ESEC, INSEAD y SDA Bocconi.

    • 'Chapter 22 Learning Styles As Vehicles for Pedagogical Development:' Aborda los estilos de aprendizaje identificando cuatro (Activista, Reflexivo, Teórico y Pragmático) y, con base en datos empíricos analiza e identifica algunos patrones y consejos.

    • 'Chapter 23 Mastering Business Action: Implications for Management LEarning in Business Schools:' un capítulo final que invita a repensar la enseñanza directiva para lo que se identifica una serie de desafíos y sus implicaciones.

'Teaching and Learning at Busoness Schools' es un libro que, al menos para mi gusto, es desigual en cuanto a interés, lo cual puede ser normal dada la variedad de autores y temas. Ha habido capítulos que me han gustado mucho y otros que, sinceramente, no me han dicho nada. De todas formas, no encuentro demasiada literatura que aborde la enseñanza superior y sobre todo en escuelas de negocio, así que, aunque sea por excepción, se trata de un recurso valioso.

Pär Martensson

(Fuente: Traducción y ligera elaboración propia de la biografía en Stockholm School of Economics)

Pär Martensson
Pär Mårtensson es Profesor Asociado en el Department for Management and Organization de la Stockholm School of Economics, donde es responsable de Pedagogy and Faculty Development e investigador asociado en el Institute for Business Process Development. Durante más de 20 años ha estado involucrado en educación de grado, posgrado y ejecutiva. Actualmente es, entre otras cosas, Coach for ChangeLive en el MBA de la Stockholm School of Economics.

Pär tiene un doctorado por la Stockholm School of Economics y su área de interés en investigación son los procesos de gestión y su relación con las actividades de cambio en una combinación de teoría y práctica. Ha escrito o editado cinco libros y publicado los resultados de su investigación en medios como MIS Quarterly. Pär actúa con frecuencia como coach de líderes de proyectos de cambio y como asesor/coach de directivos y equipos en la empresa privada en materia de actividades de cambio en proyectos de transformación.

El desarrollo de la facultad siempre ha ocupado un lugar relevante para Pär. Fue director del programa International Teachers Program (ITP) en la época en que éste fue acogido por la Stockholm School of Economics entre 2003 y 2005. En las siguientes ediciones, que tuvieron lugar en IMD, SDA Bocconi, Kellogg School of Management y HEC Paris, fue miembro de la facultad y coach. Imparte talleres sobre desarrollo en materias sobre desarrollo de facultades y sesiones de coaching en diferentes escuelas de negocio internacionalmente. También ha co-editado el libro 'Teaching and Learning at Business Schools: Transforming Business Education'

Puedes saber más del autor visitando su perfil en LinkedIn.

Magnus Bild

(Fuente: Traducción y ligera elaboración propia de la biografía en Stockholm School of Economics)

Magnus Bild
Magnus Bild es doctor en Business Finance por la Stockholm School of Economics y tiene un Máster en Science, Accounting and Finance por la misma universidad.

Durante 20 años, desde 1999 hasta 2019, ejerció actividad docente en la Stockholm School of Economics donde diseñó e impartió programas a medida en finanzas para especialistas financieros y directivos generallistas, trabajando en grupos que variaban entre una persona hasta 200. Su principio rector es combinar contenido relevante con un diseño de programa innovador así como el empleo de métodos pedagógicos adecuados.

Es socio fundador de la firma Bild & Runsten AB.

Puedes saber más del autor visitando su perfil en LinkedIn.

Kristina Nilsson

(Fuente: Traducción y ligera elaboración propia de la biografía en Stockholm University)

Kristina Nilsson
Profesor de la Stokholm University, donde es directora de Studies for General Linguistics, Phonetics and Computational Linguistics tanto en primero como en segundo ciclo y directora coordinador de Studies for Linguistics and Sign Language.

Kristina es investigadora en linguiística computacional.

Puedes saber más de la autora visitando su perfil en LinkedIn.

Ficha técnica: