viernes, 30 de agosto de 2013

#macrotweet: Hablar a toro pasado de decisiones complejas

We are prone to blame decision makers for good decisions that worked out badly and to give them little credit for successful moves that appear obvious only after the fact.

Daniel Kahneman
'Thinking fast and slow'

miércoles, 28 de agosto de 2013

Dirección de proyectos y la falacia de la planificación de Kahneman

Es curioso cómo, a veces, dos disciplinas diferentes, con técnicas diferentes y partiendo de supuestos diferentes, pueden llegar a las mismas o similares conclusiones.

Eso he podido observar hoy cuando leyendo el libro 'Thinking fast and slow' de Daniel Kahneman, un autor del campo fundamentalmente de la psicología, llego al punto en que nos habla de la visión externa ('outside view') y de la falacia de la planificación ('the planning fallacy').

El libro de Kahneman se centra en estudiar dos modos de pensar, el Sistema 1 automático y rápido, y el Sistema 2 racional y lento, cómo se complementan e interaccionan, pero también los sesgos y falacias que produce en ocasiones esa interacción, o la intervención de uno de ellos, típicamente el Sistema 1, cuando sería preciso la intervención del Sistema 2.

El caso es que en este rincón de la obra, se centra en la planificación y previsión (fundamentalmente de fechas). Dice Kahneman que con frecuencia se producen errores en la planificación de proyectos. El motivo fundamental que encuentra es que la planificación es en cierto sentido endógena (visión interna) en que los miembros o responsables del proyecto hacen una estimación que se caracteriza por tender a centrarse en el mejor escenario (incapaces o no deseosos de identificar y estimar todos los posibles problemas y desviaciones que puedan ocurrir) y despreciando lo que denomina la visión externa, que vendría a ser la experiencia en proyectos similares realizados anteriormente (y que ya han pasado por todo tipo de vicisitudes).

Así lo explica:
planning fallacy [] describe plans and forecastas that:
  • are unrealistically close to best-case scenarios
  • could be improved by consulting the statistics of similar cases

Recordemos ahora un poco de teoría de dirección de proyectos, en concreto en el área de planificación o gestión del tiempo del proyecto. La forma habitual de planificar proyectos, inspirándonos en el PMBOK incluye la descomposición en actividades (a partir de la Work Breakdown Structure que forma parte de la gestión del alcance del proyecto), el establecimiento de relaciones de dependencia entre las actividades, la estimación del tiempo de las tareas actividades, y el cálculo del tiempo total del proyecto aplicando una técnica como PERT/CPM.

Como técnicas para estimar la duración de las actividades individuales podríamos mencionar varias como, por ejemplo:
  • Juicio de expertos: estimaciones por parte de expertos con base en su experiencia y conocimientos.

  • Estimación paramétrica: elegimos algún tipo de parámetro que represente el 'output' a generar, por ejemplo, número de líneas de código, planos, objetos fabricados o lo que sea, y eso lo unimos al tiempo unitario para producir ese output. Com ambos datos es posible obtener la duración de la actividad.

  • Estimación analógica: por mera comparación con tareas o proyectos similares
Lo cierto es que todas estas técnicas se pueden aplicar para tareas individuales pero también para una estimación, grosera eso si, del proyecto en su conjunto. Así, podemos estimar la duración total del proyecto mediante una comparativa analógica con un proyecto similar o una estimación paramétrica tomando outputs del proyecto en su conjunto.

Por otro lado, ¿de dónde proceden los valores de la duración unitaria del elemento elegido como parámetro o las duraciones de proyectos anteriores? Pues de lo que en el PMBOK se denominan activos de la organización ('Organizational process assets'), que no dejan de incluir, entre otras cosas, la base de conocimiento generada en experiencias anteriores... es decir, a experiencia de otros...

¿Se observa el paralelismo?

Si consideramos como expertos a los miembros o responsables del proyecto y pensamos en una planificación hecha a partir de juicio de expertos unida a una técnica de PERT/CPM (probablemente lo más habitual) nos situaríamos en lo que Kahneman denomina la visión interna. Por el contrario, mediante métodos paramétricos o analógicos estaríamos recurriendo a la experiencia anterior de la organización, es decir, a la visión externa.

Si hacemos caso de lo que parece sugerir Kahneman aparentemente lo correcto sería recurrir a métodos paramétricos o analógicos.

Mi experiencia personal, sin embargo, me dice que éstos últimos suelen ser mucho menos rigurosos y muy de grano grueso. Además, una vez hecha la estimación, resulta difícil de seguir su cumplimiento, repartir trabajos, explicar desviaciones, detectar riesgos y definir acciones correctoras.

¿Qué es, pues, lo óptimo? Probablemente la complementariedad de técnicas: 

Primeramente, mediante un método más riguroso y formal, los expertos del proyecto con todos sus conocimientos generales y específicos del proyecto hacen su estimación y luego se contrasta con una visión analógica o paramétrica. Si hay mucha distancia, se debe intentar entender qué paso en otros proyectos y que no estamos teniendo en cuenta (las denominadas lecciones aprendidas 'lessons learned' nos deberían ayudar) o, quizá, poner un cierto colchón para imprevistos (aunque esto está desaconsejado por el PMI, Project Management Institute) para hacer frente a esas eventualidades que no somos capaces de identificar en el momento de la planificación. 

Otra opción podría ser partir de nuestra estimación 'interna', con una advertencia a los 'stakeholders' del 'gap' con estimación externa y con una muy rigurosa gestión de cambios y riesgos a lo largo del proyecto.

Sea como fuere, no parece que las conclusiones del psicólogo y de los especialistas en dirección de proyectos sean tan diferentes. Es conocido que los proyectos tienden a retrasarse y es muy probable que la imposibilidad de identificar casos adversos, el interés en no hacerlo (para no perjudicar la venta interna del proyecto), o un cierto optimismo estén en la raíz de ello. Y también es cierto que el mirar de reojo a experiencias anteriores, a las lecciones aprendidas y las duraciones de actividades o proyectos anteriores sirve de valioso contraste de realidad.

lunes, 26 de agosto de 2013

Capital-riesgo y el desafío metódico a la estadística

En un artículo anterior, aquel en que hablábamos sobre el feedback y titulábamos 'La estadística contra la eficacia del feedback', veíamos cómo Daniel Kahneman nos advierte sobre la importancia de reconocer la distribución normal de los fenómenos aleatorios y tener en cuenta, consecuentemente, lo que el denomina 'la regresión a la media' a la hora de hacer  predicciones. Esta regresión a la media lo que nos indica es que, cuando un fenómeno presenta un valor anormalmente alto o bajo (digamos el desempeño de una persona) lo que cabe esperar en el futuro no es que se mantenga ese desempeño alto o bajo (como tendemos a pensar) sino todo lo contrario, que en su siguiente manifestación se acerque a la media y sea, por tanto, menos alto o menos bajo.

En el caso del desempeño de personas y del feedback, probablemente la advertencia sea pertinente...aunque el título del post es intencionadamente algo exagerado :).

Sin embargo, no siempre esa cierta 'prudencia estadística', es la mejor opción. Y no porque no se mantenga la validez científica de la observación, sino porque lo que buscamos no es exactamente la prudencia y el acierto en el mayor número de casos sino otros objetivos.

Estas predicciones razonables y 'estadísticamente preparadas' son, por decirlo de alguna manera, 'conservadoras', y no son la mejor opción salvo que dispongamos de una enorme cantidad de información para detectar casos especiales o lo que Nassim Nicholas Taleb llamaría 'cisnes negros', fenómenos excepcionales que no se ajustan a lo común.

En esa línea recogemos una frase de Kahneman

A charasteristic of unbiased predictions is that they permit the prediction of rare or extreme events only when the information is very good. If you expect your predictions to be of modest validity, you will never guess an outcome that is either rare or far from the mean.

Una de estas ocupaciones donde es más importante el predecir correctamente los casos excepcionales que acertar en la mayor marte de los casos es el campo del capital riesgo. El capital riesgo se mueve en arenas movedizas y sabiendo que la mayor parte de las startups fracasan debe elegir dónde invertir. En esta situación, lo realmente importante es detectar los casos relativamente escasos que triunfan. El dinero obtenido como retorno de la inversión en el caso de éxito justificará y hará rentable, no sólo esa inversión concreta triunfadora, sino todas las inversiones fallidas que se hayan podido realizar anteriormente.

El inversor de capital riesgo se puede permitir fallar con cierta frecuencia...pero lo que no se puede permitir es no detectar con razonable éxito las buenas oportunidades... y un exceso de prudencia estadística nos haría desestimar siempre el caso excepcional.

Así lo explica el propio Kahneman.
the rational venture capitalist knows that even the most promising start-ups have only a moderate chance of success. She views her job as picking the most promising bets from the bets that are available.
...
The goal of venture capitalists is to call the extreme cases correctly, even at the cost of overestimating the prospects of many other ventures.

De esta forma, si al hablar del feedback sobre desempeño a personas parecía la opción más correcta mirar siempre de reojo a la estadística y no apostar por una continuidad del nivel de desempeño ni sobrevalorar el efecto del feedback, en el caso del capital riesgo, parece que, paradójicamente, lo racional es olvidarse un poquito, sólo un poquito, de la estadística, entendiendo por tal el fenómeno de la regresión a la media, y apostar por el cisne negro, por la startup que triunfará desafiando a la estadística y a la media.

viernes, 23 de agosto de 2013

Lo que cansa pensar... y por qué

¿Alguna vez se ha sentido mentalmente agotado? ¿Alguna vez ha experimentado ese cansancio al que se llega tras una larga jornada de estudio o trabajo de análisis o investigación, un agotamiento que no encuentra justificación en un casi inexistente esfuerzo físico? ¿Alguna vez ha experimentado ese estado de 'pereza mental', ese considerar como insalvable el esfuerzo a realizar para llecar a cabo una tarea de naturaleza intelectual?

¿Y ha llegado a pensar que ese cansancio podía no ser real, puesto que se trataba sólo de esfuerzo mental?

Pues, para su tranquilidad, constatar que el esfuerzo intelectual lleva aparejado un consumo absolutamente real, y abundante, de energía, y que, de forma similar al ejercicio físico, el esfuerzo mental consume glucosa.

Ya hace un tiempo pudimos incluso cuantificar la potencia que emplea nuestro cerebro en su funcionamiento, uns asombrosos, en este caso por lo bajo de la cifra, 20 vatios.

Ahora es Daniel Kahneman, quien en su libro 'Thinking fast and slow' nos informa. bien es verdad que sin cifras que nos permitan comparar, del importante consumo energético que la activdad cognitiva lleva aparejado. Nos dice:

The idea of mental energy is more than a metaphor. The nervous system consumes more glucose than most other parts of the body and effortful mental activity appears to be especially expensive in the currency of glucose. When you are actively involved in difficult cognitive reasoning or engaged in a task that requires self-control, your blood glucose level drops.

Molécula de glucosa
Así que, ya sabe, sin que ello sirva como excusa para la pereza, la próxima vez que se sienta mentalmente agotado debido a un intenso esfuerzo intelectual, recuerde, para su tranquilidad, que ese cansancio es real, muy real y su agotamiento se encuentra plenamente justificado.

miércoles, 21 de agosto de 2013

El poder real de un CEO

El CEO (Chief Executive Officer) es la máxima figura ejecutiva en una empresa, la máxima concreción del poder corporativo.

En ese papel tendemos a atribuirles un poder casi omnímodo y una capacidad completa para orientar la actividad de la empresa y para conseguir o no resultados.

La literatura sobre 'Management' suele centrarse en esta figura y suele cultivar un cierto culto a la personalidad atribuyendo casi todo lo bueno o malo (especialmente lo bueno) que le ocurre a las empresas líderes a la personalidad y actuación de sus CEOs. Pensemos en personalidades de la talla, y popularidad, de Lee Iacocca, Jack Welch o, más recientemente, Steve Jobs o Bill Gates.

Pero ¿es real ese poder? ¿Son tan decisivos los CEOs en los resultados de las compañías que dirigen?

Daniel Kahneman, estadísticas en la mano, y en una línea parecida a la que en el artículo anterior veíamos sobre la eficacia del feedback, desmonta en buena medida en su libro 'Thinking fast and slow' esta imagen dorada y heróica de los CEOs. No niega su importancia...pero si su peso real, y afirma:

CEOs do influence performance, but the effects are much smaller than a reading of the business press suggests.

Los razonamientos de Kahneman, cuyo campo es la psicología y no el 'management', son bastante desapasionados y fundamentalmente tira de estadísticas y razonamientos lógicos, identificando falacias y sesgos en nuestra forma de pensar.

El caso de los CEOs que nos ocupa lo enmarca dentro de lo que llama la 'ilusión del entendimiento' que es la falsa sensación de saber explicar los hechos del pasado... aunque sin embargo somos incapaces de predecir el futuro. Así, construimos narraciones basadas en él heroico liderazgo de los CEOs para conducir a empresas a los buenos resultados cuando el peso real de sus decisiones es mucho menor. Y creamos esas historias porque eso encaja muy bien con nuestra forma de pensar y entender, pero esa narratividad disfraza el peso de otros factores, que podemos considerar de naturaleza aleatoria y que cabría clasificar dentro de lo que habitualmente denominamos 'suerte'.

Stories of how businesses rise and fall strike a chord with readers by offering what the human mind needs: a simple message of triumph and failure that identifies clear causes and ignores determinative power of luck and the inevitability of regression.

Frente a esto, Kahneman nos aporta un dato, una estimación (aunque, cosa curiosa, en este caso y al contrario de lo que sucede en gran parte del libro, no identifica la fuente):

A very generous estimate of the correlation between the success of the firm and the quality of the CEO might be as high as 0.30, indicating 30% overlap. [...] A correlation of 0.30 implies that you would find the stronger CEO leading the stronger firm in about 60% of the pairs - an improvement of a mere 10 percentage point over random guessing

Siguiendo una razonamiento estadístico, una correlación (y es preciso recordar que correlación no es lo mismo que causalidad) del 30% entre grandes CEOs y grandes resultados en la compañía que dirigen, lleva a afirmar que sólo en el 60% de los casos, irán unidos un gran CEO a unos grandes resultados. Teniendo en cuenta que ua distribución al puro azar llevaría a un valor del 50%, un valor del 60% no es precisamente impresionante.

No se puede decir que no exista influencia, 10 puntos son algo, pero desde luego, si Kahneman está en lo cierto, es mucho menor que lo que la literatura del management nos hace pensar.


lunes, 19 de agosto de 2013

La estadística contra la eficacia del feedback

Uno de los mecanismos probablemente más utilizados en la dirección de personas y el desarrollo personal es el del feedback, es decir, la acción de comunicar la apreciación, las bondades o defectos, los puntos fuertes y débiles, sobre un trabajo concreto o sobre el desempeño en general. Esta comunicación típicamente se realiza por un mando y hacia a un colaborador aunque son posibles otros esquemas, como el del feedback 360 grados.

El mecanismo, inspirado en la técnica de fedback propia del control de sistemas, se basa en suponer que aquel que recibe el feedback, reconocerá en qué puede haber fallado o cuáles son sus puntos fuertes y de esta forma aprenderá y mejorará su desempeño.

El mecanismo parece lógico y, aunque nos movemos en un terreno parcialmente intangible, paece haber dado resultados en el pasado y seguir dando frutos hoy día.

Si embargo, leyendo 'Thinking fast and slow' de Daniel Kahneman me encuentro un interesante razonamiento que pone en guardia sobre esta eventual eficacia del feedback. Y el reazonamiento es desapasionado y puramente estadístico... pero concluye que nos podemos estar engañando sobre la eficacia del feedback (como en otros muchos fenómenos) o, más bien, sobre la asignación de una causalidad en mejoras de rendimiento que puede no ser tal.

El razonami
ento se basa en lo que el autor denomina 'regresión a la media' (regresssion to the mean). Supongamos un fenómeno aleatorio y que, por tanto, se ajusta a una distribución normal. Habitualmente, diversas manisfestaciones de ese fenómeno expondrán valores cercanos a la media pero de vez en cuando, se producirán valores extremadamente altos o extreamadamente bajos sin que esto suponga un cambio en el fenómeno. Simplemente, en una distribución normal, de vez en cuando también nos encontramos con valores altos o bajos.

El feedback se aplica de forma diferente según la compañía pero, en general, se tiende a centrar o agudizar en los casos más extremos. Se ofrece un mayor refuerzo o recompensa a los colaboradores con desempeño extraordinariamente alto y se centran los esfuerzos de feedback y de desarrollo en los empleados de desempeño anormalmente bajo.

¿Pero que ocurre si el desempeño sigue también una distribución normal o se ve afectado por fenómenos aleatorios externos? ¿Que ocurre, pues, si ese 'anormalmente' alto o bajo no suponen realmente una mala preparación o una mala actitud del colaborador sino que son, simplemente, consecuencia de situaciones aleatorias que, sin que ello suponga una diferente distribución normal, nos sitúan en los extremos de la campana?

Lo que sucedería, por lógica estadística, es que cuando pasado un tiempo midiéramos el desempeño de estos mismos colaboradores, tenderían a acercarse al valor medio (que es el más habitual) y, por tanto, aquellos que mostraron un desempeño excelente tenderían a ofrecer un desempeño más bajo, más cercano a la media, y aquellos que ofrecieron un desempeño deficiente presentarían un mejora significativa, simplemente por haberse acercado a la media.

Si pensamos en el feedback, normalmente habremos hecho esfuerzos de retroalimentación hacia los empleados de peor desempeño buscando su desarrollo y su mejora. Y al observar la mejora, tenderemos a asignar una falsa causalidad al feedback como agente provocador del cambio, cuando esta mejora es debida únicamente a motivos estadísticos y al hecho de enfrentarnos a fenómenos aleatorios que siguen una distribución normal.

Aparte de esta falsa asignación de causalidad, se produce otra paradoja y es que, dado que 'los buenos' tienden a empeorar y 'los malos' a mejorar, y dado que el feedback hacia 'los buenos' es agradable y de refuerzo, y el feedback hacia 'los malos' es desagradable y provocador, parece que se premia el ser 'desagradable' en el feedback y se favorece, por tanto, un 'feedback' duro, desagradable y exigente. Así lo indica Kahneman:

The feedback yo which life exposes us is perverse. Because we tend to be nice to other people when they please us and nasty when they do not, we area statistically punished for being nice and rewarded for being nasty.

No creo que este estudio de Daniel Kahneman (que está respaldado por bastante más datos que estos meros comentarios), suponga un descrédito real de la técnica del feedback, pero sí nos pone en guardia acerca de cómo estimamos los resultados del mismo y nos advierte frente a erróneas asignaciones de causalidad en eventuales mejoras de desempeño.

A tener en cuenta.

viernes, 16 de agosto de 2013

Un futuro tecno-económico imaginado por Jaron Lanier


'Who owns the future?' es un extenso y multidisciplinar análisis de la sociedad digital actual poniendo énfasis quizá en sus aspectos macroeconómicos.

Aunque el libro es bastante extenso y su autor nos conduce por un largo y algo alambicado recorrido por sus ideas sobre tecnología, economía y sociedad digitales, se podría decir que sólo dos son las grandes ideas presiden todo el libro.

En primer lugar, y en lo que a análisis se refiere, la constatación de que el desarrollo de la sociedad digital ha llevado a una gran concentración de poder en lo que el autor denomina 'Siren servers' (servidores sirena). ¿Qué es un 'Siren Server'?. La definición que el autor nos proporciona es la siguiente: "Un servidor sirena, es un computador de élite o un conjunto coordinado de computadores en una red. Se caracteriza por el narcisismo, una enorme aversión al riesgo y una extrema asimetría de información. Es el ganador de una lucha del tipo todo o nada e impone otras luchas del tipo todo o nada a aquellos que interaccionan con él.". Ejemplos típicos de 'Siren Servers' serían los gigantes de Internet como Google, Facebook o Amazon, pero el concepto se extiende algo más allá del mundo estrictamente digital para incluir tambien, por ejemplo, a aseguradoras o agencias de inteligencia.

El 'modus operandi' y el principal problema con los 'Siren Servers', siempre según el autor, es que recogen datos de la red sin pagar por ellos, los analizan pero mantienen los resultados en secreto y los utilizan en su propio provecho. La consecuencia es una concentración de poder y de valor en esos 'Siren Servers', un poder y un valor (económico), que va desapareciendo de las manos de los ciudadanos, creando una sociedad desigual y la desaparición de la clase media.

La concentración de valor merece un comentario especial. Lanier entiende que a medida que proliferan estos 'Siren Servers', su manera de obtrener información suele proceder de aportaciones gratuitas por parte de los ciudadanos. El problema es que, a medida que diferentes sectores se van digitalizando (la música podría ser un ejemplo paradigmático), aquellos que aportan realmente la información o el valor dejan de ser pagados por ello, concentrándose no sólo la información sino también el beneficio económico en esos pocos 'Siren Servers'. A cambio, la población general se va empobreciendo y, paradójicamente, la sociedad en su conjunto también.

La segunda gran idea del libro la constituye la propuesta de Jaron Lanier para afrontar esta problemática y resolver la paradoja. El autor entiende que es imprescindible la existencia de una clase media. Entiende, sobre todo, que aunque parece destruirse riqueza, en realidad no es así, sino que lo que ocurre es que el valor que han aportado los ciudadanos ha dejado de ser pagado. ¿La solución? Un sistema de micropagos por el que toda persona que aporte información y valor a la red sea remunerada por ello. Estos micropagos devolverían el valor a quien realmente lo han creado, las personas, y les permitiría de esta forma ganarse la vida a partir de ese valor realmente aportado a la economía y la sociedad. A este concepto el autor lo denomina una economía humanista y proporciona detalles acerca de la forma que ese esquema de micropagos podría adoptar.

'Who owns the future?' es un libro bastante extenso, compuesto por 32 capítulos agrupados en nueve partes que se separan por ocho interludios. A lo largo de sus páginas vemos desplegarse todo el universo intelectual del autor, a veces de una forma que parece improvisada y no del todo estructurada, pero siempre profunda y original.

Una lectura diferente y estimulante de un autor que, a pesar de amar la tecnología, no abandona la crítica a los modelos económicos y sociales a que ésta puede conducirnos.

Jaron Lanier

(Fuente: Wikipedia)

Jaron Zepel Lanier (nacido el 3 de mayo de 19602 en la Ciudad de Nueva York) es un informático, compositor, artista visual y autor. Fue un pionero y popularizó el término "Realidad Virtual" (VR de la siglas en inglés: Virtual Reality) al principio de los años ochenta. En aquel entonces, fundó la VPL Research, la primera compañía para vender productos de VR. Sus citas actuales incluyen la Interdisciplinary Scholar-in-Residence, CET, Universidad de California, Berkeley.

Puedes conocer más sobre el autor en su página personal.

Ficha técnica:

TITULO: Who owns the future?
AUTOR: Jaron Lanier
EDITORIAL: Simon & Schuster
AÑO: 2013
ISBN: 978-1451654967
PAGINAS: 416

Artículos de este blog relacionados

miércoles, 14 de agosto de 2013

Una economía humanista, la respuesta de Jaron Lanier al reto de la economía digital

Cuando hace unas semanas comentábamos en este mismo blog las paradojas sobre el crecimiento económico en un mundo digital, iniciando así un serie de artículos dedicados al pensamiento de Jaron Lanier recogidos en su último libro 'Who owns the future?', anunciabamos que más adelante revisaríamos cuál era la propuesta de este autor para hacer frente a esas paradojas.

Ha llegado el momento.

Recordar primero que Lanier entiende que la presencia predominante de lo que el denomina 'Servidores sirena' ('Siren servers'), a saber, unos elementos tecnológicos o no, pero que concentran el conocimiento sobre un área determinada y median en la interaccion entre personas (Google, Facebook, intermediarios financieros, etc), supone una altísima concentración de poder y también de beneficio económico. Una altísima concentración de poder que elimina la presencia de la clase media y que extrema las desigualdades entre una élite muy rica y poderosa y un común de la población paradójicamente empobrecida por el desarrollo económico digital.

Argumenta Lanier, ademas, que gran parte del poder de esos servidores sirena procede de controlar y administrar una información procedente de las personas (no sólo sus propios datos personales, sino también fotografías, articulos, imvestigaciones, trabajos, musica, dibujos, comentarios, reseñas, etc), una información que las personas han entregado gratuita y desinteresadamente a cambio simplemente de su participación en Internet y en el nuevo mundo digital y social.

El problema es, en el fondo, que la parte inteligente y original que aportan las personas no se recompensa, no se monetiza, y, sin embargo, mediante el uso de las nuevas capacidades digitales, se automatizan otra serie de tareas...por las que tampoco se remunera a las personas. La automatización no es mala, todo lo contrario, forma parte del progreso económico y social pero si parte de los trabajos son automatizados y por tanto no se paga por ello a las personas, y el resto de trabajos intelectuales, originales, no automatizables tampoco se recompensan, entramos en una paradójica espiral en que el progreso tecnológico y el desarrollo económico conducen, sin embargo, a un empobrecimiento de la mayor parte de la población.


¿Cuál es entonces la solución?

Lanier cree que el valor procede de esa información aportada gratuitamente y que dado que el valor procede de esa información ésta debe ser remunerada. Los servidores sirena deberían compensar económicamente las aportaciones de información que reciben de las personas, mediante un sistema de micropagos que Lanier estudia y comenta aunque preciso es reconocer que tampoco define en su totalidad.

Este esquema económico es lo que Lanier bautiza como una economía humanista, una economía en que se recompensa aquella aportación de valor no automatizable:
As long as the people who actually do whatever it is that can't be automated are paid for what they do, an honest human economy will persist.

Una economía humanista que permite la existencia de una amplia clase media, que proporciona un medio de vida a grandes capas de población sin renunciar a uno de los sacrosantos principios del mundo de Internet, a saber, la libertad y gratuidad de acceso a la información.
A world in which more and more is monetized instead of less and less, could lead to a middle-class oriented information economy, in which information is free, but is affordable.

Y una economía que, incluso, esboza un mecanismo de sostenibilidad social previendo también la remuneración económica, siquiera parcial, de las personas mayores, mediante el cobro de 'royalties' por las aportaciones que hicieron en sus épocas más activas.
In a humanistic information economy, as people age, they will collect royalties on value they brought into the world when they were younger.

La propuesta de Lanier es inspiradora, puesto que equilibra lo mejor del progreso tecnológico con la libertad de información y con la dignidad de las personas y su bienestar económico y social. Puede tener incluso sentido económico en tanto en cuanto identifica la creación de valor y recompensa esa creación de valor. Tengo mis reservas, sin embargo, sobre la viabilidad real del esquema de micropagos que propone y en el que se basa todo el esquema.

No sé, por tanto, si la solución que propone Lanier es la adecuada, pero cierto es que debemos buscar ese esquema justo, sea o no el propuesto por Lanier que sea capaz de poner al servicio de las personas todo el progreso tecnológico, todos los avances del mundo digital, porque como nos recuerda el propio autor señala muy acertadamente:
We must not allow technological change to be driven by a philosophy in which people aren´t held special.

martes, 13 de agosto de 2013

#macrotweet: Otra forma de entender la inteligencia

Intelligence is not only the ability to reason; it is also the ability to find relevant material in memory and to deploy attention when needed.

Daniel Kahneman
'Thinking fast and slow'

lunes, 12 de agosto de 2013

Lógica económica y lógica legal

La llegada de nuevos modelos económicos y nuevos modelos de negocio que desafían a los anteriores suele ser causa de confusión y tensión entre los representantes de los reinantes y beneficiosos antiguos modelos económicos y los aspirantes, los proponentes de los nuevos modelos.

La confrontación puede, de hecho, llegar al terreno legal.

Este fenómeno se ha producido y se sigue produciendo especialmente en aquellos modelos de negocio que actualmente son atacados por los nuevos modelos ligados a Internet. Pensemos en todo lo que tiene que ver con el negocio cultural y de los derechos de autor frente a modelos basados en la gratuidad o tecnologías P2P.

La lucha legal se ha cobrado alguna víctima entre los aspirantes, como pudo pasar hace algunos años con el cas de Naptser.

Sin embargo, y entendiendo las tensiones, hay algo que conviene tener en cuenta: al final, la lógica, en este caso la lógica económica, se suele acabar imponiendo. El supuesto triunfo sobre Naptser no ha evitado la profunda crisis, una crisis fundamentalmente de modelo de negocio, de la industria cultural, muy especialmente de la musical.


Y es que las batallas legales pueden dar resultados durante un tiempo o en algunos casos, pero al final triunfan los mejores modelos de negocio, los más realistas, los mejor adaptados. Luchar en el terreno legal contra un nuevo modelo de negocio que interesa a los consumidores, es casi como intentar poner puertas al campo.

Así nos lo recuerda Jaron Lanier en su libro 'Who owns the future?' cuando afirma:
There can never be enough police to shut down activities that align with economic motives.

Encontrar el equilibrio nunca es fácil, ni mucho menos definitivo. Pero en la industria cultural y del ocio, como en el sector de las telecomunicaciones y servicios TIC, en el de la educación, o en tantos otros que Internet desafía y hace evolucionar, es necesario encontrar un equilibrio razonable.

Y este equilibrio, sea cual sea, seguro lo vamos a hallar a partir de una lógica económica... no de una lógica legal.

viernes, 9 de agosto de 2013

Una necesaria introducción al Software Defined Networking (SDN) con Rajesh K. Sundararajan

Nos encontramos ante un libro muy breve pero seguramente también muy necesario en el momento de su publicación.

Este volumen da una visión concisa y clara, pero a la vez con un nivel de detalle suficiente, para entender en qué consisten las soluciones de Software Defined Networking (SDN), una de las que parece ser las tendencias de futuro de la tecnología de las telecomunicaciones.

El libro consta de 20 breves capítulos y un glosario sin una estructuración adicional.

Podríamos decir que los primeros capítulos, 'Why SDN?', 'What is SDN?', 'Flavors of SDN' y 'SDN in different networks' son de carácter introductorio y proporcionan las ideas básicas sobre SDN.

Los siguientes, del capítulo 5 al 14, serían el núcleo de la obra y describen diferentes aspectos de naturaleza técnica: seguridad, virtualización, protocolos, etc

Los últimos capítulos 'Standards bodies governing SDN', 'Open source community efforts', 'Netconf - Transactional netowork setup', 'GPMLS, PCD and SDN', 'Benefits of SDN', y 'Universities & Government' explican, si se quiere, aspectos más del contexto en que se mueve y desarrolla SDN, sus beneficios y los actores principales.

'A definitive guide to Software Defined Networking' constituye, a despecho de lo que indica su título, no una guía definitiva, que en el estado de madurez actual de la tecnología es imposible, pero sí una buena y completa introducción. A la espera de una verdadera guía definitiva, es un muy buen punto de partida.

Rajesh Kumar Sundararajan

(Fuente: Panel participantes en evento 2011 de IEEE Advanced Networks and Telecommunications Systems (ANTS)

Rajesh Kumar Sundararajan es Vicepresidente adjunto para comunicaciones de datos en Aricent, enfocándose en soluciones de routing y swtching. Tiene más de 16 años de experiencia en la estrategia, gestión y desarrollo de software para comunicaciones y aplicaciones de red en diferentes tecnologías incluyendo ATM, LAN y Metro Ethernet.

Es titulado en ingeniería eléctrica por la Universidad de Bangalore, en Inidia y posee un máster en ingeniería de sistemas de telecomunicaciones del Indian Institute of Technology en Kharagpur, India

Ficha técnica:

TITULO: A DEFINITIVE GUIDE TO SOFTWARE DEFINED NETWORKING (SDN)
EDITORIAL: Amazon (eBook)
AÑO: 2013
ISBN: N/A
PAGINAS: 78

jueves, 8 de agosto de 2013

#macrotweet: Tecnología y personas

We must not allow technological change to be driven by a philosophy in which people aren't held to be special.

Jaron Lanier
'Who owns the future'

miércoles, 7 de agosto de 2013

La fragilidad de la identidad digital

En los últimos años nos henos venido acostumbrando a la omnipresencia de algunos sitios de Internet como pueden ser Wikipedia o Amazon. Y entre los sitios que consideramos ya como parte de nuestras vidas se encuentran los medios sociales más populares como Twitter o Facebook.

La presencia continua y cuidada en estos medios sociales crea una imagen de nosotros mismos, una huella digital o, más aún, una identidad digital a la que nos vamos acostumbrando y que acaba siendo nuesra imagen y carta de presentación para todos aquellos a los que no conocemos personalmente.

Más aún, adecuadamente cuidada y dirigida, esta identidad digital puede ayudarnos a construir, en lo que al terreno profesional se refiere, nuestra marca personal, nuestra imagen y proposición de valor personales.

La omnipresencia de Internet y los medios sociales pueden, sin embargo, llevarnos a una sensación seguramente engañosa acerca de la estabilidad y durabilidad de estos medios y de esta imagen creada con mucha dedicación y, en ciertas ocasiones, con esfuerzo y una clara estrategia.

En su último libro, 'Who owns the future?', su autor, Jaron Lanier, nos advierte a este respecto. Nos recuerda que, por ejemplo, Facebook es sólo una empresa y, cómo tal, volátil y sometida a los avatares del mercado y la economía... y susceptible de desaparecer y con ella la parte de nuestra huella digital que en ella resida.

The death of Facebook must be an option if it is to be a company at all. Therefore your online identity should not be fundamentally grounded in Facebook or something similar.

La advertencia de Lanier es clara: no podemos confiar nuestra imagen digital a un sitio concreto como Facebook.

La advertencia es acertada y pertinente.

No tan claras o tan inmediatas son las alternativas.

Lanier aboga por la intervención gubernamental para garantizar esa estabilidad, una intervención que habría que definir y articular pero que empezaría, como mínimo, con la generación de un ID digital por parte de las administraciones.

Mientras eso llega o no, se me ocurren tres posibles recetas, ninguna definitiva lo reconozco, para intentar independizar nuestra identidad digital y nuestra marca personal de un sitio web o una empresa concretas:
  • Diversificar nuestra presencia en varios medios sociales, manteniendo la coherencia e, incluso, en algunos casos, duplicando contenidos, de forma que la ligadura a un medio concreto sea menor.

  • Mantener un site propio con dominio propio. Cierto es que esto cuesta dinero y dedicación...pero siempre estará en nuestra mano la parte de identidad digital que en él volcamos.

  • Cultivar la identidad, personalidad y marca personal 'off-line'. Aparte de que nuestro valor intrínseco no puede venir ligado a ningún medio, digital o no, siempre nos será más fácil reconstruir una identidad o una marca en el mundo online si tenemos los conocimientos, valores y el reconocimiento en el mundo offline.
En parte, la estrategia y el esfuerzo que dediquemos a preservar nuestra identidad digital, dependerá de cuánto la valoremos...

lunes, 5 de agosto de 2013

¿Qué sabe Facebook de ti?


La privacidad es uno de los puntos de preocupación en lo que toca al empleo masivo de redes sociales y en general a la presencia en Internet y en el mundo 2.0.

Nos preocupan los datos que aportamos a las redes y el uso que éstas hacen de ellos. Facebook ha tenido de hecho más de un problema en lo relativo a sus políticas de privacidad y su transparencia respecto a este tema.

Sin embargo, y según nos advierte Jaron Lanier en su último libro 'Who owns the future?' la huella digital que dejamos va mucho más allá de los datos o elemenos multimedia que voluntariamente, y con más o menos cuidado, aportamos, mucho más allá de aquello de lo que las diferentes políticas de privacidad nos pueden advertir.

Esta es su advertencia:
The most precious and protected data, given the way we are doing things these days, are statistical correlations that are used by algorithms but are rarely seen and understood by people.

Según esto, la correlación de datos, la información sobre comportamiento y, en general, todo un conjunto de datos que no aportamos de forma directa y consciente, pero que pueden ser deducidos, forman parte de un rico y valioso arsenal de información sobre nosotros mismos que se encuentra en 'la red' y del que no somos muy conscientes.

Hablando de Facebook, así es como Lanier nos advierte de ese nuestro inconsciente comportamiento y del beneficio económico que de esa inconsciencia se puede obtener:
There are two versions of you on Facebook: the one you obsessively tend, and the hidden, deepest secret in the world, which is the data about you that is used to sell access to you to third parties.

Inquieta pensar sobre esa falta de privacidad y, más aún, nuestro desconocimiento sobre la información que sobre nosotros mismos se encuentra en la red.

¿Cómo actuar?

La respuesta no es en absoluto evidente.

Quiséramos pensar que una acertada legislación internacional podría eliminar estos riesgos...pero la experiencia no invita al optimismo.

¿Qué hacer entonces? ¿No participar en Internet y el mundo 2.0?

Puede ser peor el remedio que la enfermedad...aparte de que, incluso aunque no los aportemos nosotros mismos, en la red existe rastros de nosotros procedentes de webs oficiales, publicaciones o simplemente referencias a nosotros mismos vertidas por amigos o familiares.

No soy capaz de pensar una solución del todo convincente.

Como no me parece en absoluto aconsejable ni efectivo el desaparecer de la red, lo único que se me ocurre es seguir siendo muy consciente de la información que se aporta, en lo que podamos controlar, y exhibir un comportamiento ejemplar en la red de forma que nada que de nosotros se pueda deducir o conocer nos pueda llegara incomodar o perjudicar excesivamente caso de ser utilizado sin nuestro consentimiento.

No es muy sólido...pero no sé qué más se puede hacer.

¿Ideas?

viernes, 2 de agosto de 2013

Conociendo las redes de fibra óptica de la mano del IEEE

El acceso por fibra óptica, fibra óptica pasiva en concreto, es una de las tendencias crecientes en el sector de las telecomunicaciones y parece que puede acabar sustituyendo los accesos de cobre propios del POTS tradicional o del xDSL.

'The ComSoc Guide to Passive Optical Networks' es una guía, relativamente breve pero no exenta de profundidad, a esta tecnología, especialmente en lo que al acceso se refiere.

Se trata de un volumen no muy extenso que se organiza en cuatro capítulos y un anexo.

El primer capítulo, 'PON IN THE ACCESS PICTURE', pone la tecnología de la fibra óptica en contexto frente a otras tecnologías de acceso. Explica sus ventajas, sus fundamentos y cómo se compara con DSL, cable, etc. Es un capítulo más o menos divulgativo y muy ilustrativo.

El segundo capítulo, 'PON ARCHITECTURE AND COMPONENTS', explica algunas alternativas topológicas y las características y elementos diferenciales de BPON, GPON y EPON, incidiendo en aspectos como el acceso al medio, los componentes, la gestión y control o la calidad de servicio..

El tercer capítulo, 'TECHNIQUES AND STANDARDS' se enfoca de nuevo en EPON, BPON y GPON y describe en mucho más detalles, las normas, las tecnologías, los protocolos, las tramas, etc. Se trata de un capítulo que es ya bastante técnico.

El cuarto y último capítulo, 'RECENT ADVANCES AND LOOKING TO THE FUTURE' nos habla de temas algo más dispersos como la interoperabilidad entre fabricantes y operadores, la integración óptica y otra serie de características técnicas avanzadas y en evolución.

Finaliza el libro con un largo anexo que contiene una selección del estándar de IEEE para GPON.

'The ComSoc Guide to Passive Optical Networks' es un libro de complejidad y especialización creciente, en ningún caso para legos en la materia, pero donde el primer y segundo capítulos pueden ser leídos y aproximadamente entendidos por personas con unos conocimientos básicos de telecomunicaciones. Sin embargo, los dos últimos capítulos son ya de un bastante alto nivel técnico y el anexo puede ser calificado de 'para especialistas'.

IEEE Communications Society

(Fuente: Traducción y ligera elaboración propia de la descripción en el sitio web de la institución)

IEEE Communications Society es una comunidad de profesionales de la industria de las telecomunicaciones interesados en el progreso de todas las tecnologías de comunicaciones. Con ese fin, patrocina publicaciones, conferencias, programas educativos, actividades y comités técnicos que fomentan trabajos originales sobre tecnología, ingeniería y ciencia de las telecomunicaciones.   




Ficha técnica:

TITULO: THE ComSoc GUIDE TO PASSIVE OPTICAL NETWORKS
EDITORIAL: Wiley
AÑO: 2012
ISBN: 978-0-470-16884-4
PAGINAS: 200