lunes, 30 de agosto de 2010

Ideas sobre comunicación y cognición 2.0 (III). Fallos en la bidireccionalidad de la comunicación en la blogosfera

Uno de los elementos que caracteriza a la Web 2.0 frente a la anterior generación de internet, un leit-motiv de la revolución de los social media, es el diálogo, la comunicación bidireccional entre personas, entre empresas, entre empresas y clientes, entre profesores y alumnos, entre periodistas o escritores y sus lectores... un diálogo fluido y abierto entre iguales.

Sin embargo, no siempre esa comunicación goza de tanta bidireccionalidad y, por el contrario, se presentan diversas tipologías de fallos en la misma. En este artículo comento dos que observo con frecuencia, ambas centradas en el mundo de los blogs.

El discurso en el vacío

Es un caso de fallo en que hay emisor ... pero no hay receptor o éste permanece mudo. No es extraño el encontrar blogs en que los artículos no reciben apenas comentarios. La explicación más sencilla puede ser la falta de audiencia.

Otras causas pudieran ser un lenguaje formal y poco cercano que, hasta cierto punto, aburre o intimida. Esto pudiera darse, por ejemplo, en el caso de blogs de empresas.

Se cual sea la causa, y dejando aparte el posible impacto anímico en el blogger, especialmente si este opera a título personal, lo cierto es que la falta de comentarios nos lleva una comunicación que no se distancia mucho de la denominada web de publicación o Web 1.0.

El blogger sin voluntad de diálogo

Otra casuística, si se quiere algo más culpable, es la de aquellos blogs en que los lectores sí comentan...y es el autor el que no contesta a los comentarios o lo hace raramente.

En algún caso pudiera ser mera sobrecarga del blogger (en el caso de blogs muy populares con gran frecuencia de publicación y abundancia de comentarios). También pudiera tratarse de una cierta desidia o soberbia del blogger que no dedica el tiempo suficiente a contestar a sus lectores o que no considera valiosos los comentarios y no cree por ello necesario o apropiado el contestarlos. La sensación para el lector que deja el comentario, y hablo por experiencia, no es, en cualquier caso, demasiado positiva y, en todo caso, aporta una bidireccionalidad imperfecta, más próxima a dos unidireccionalidades alternas (algo así como un half-duplex) que a una verdadera conversación.

El diálogo desaprovechado

Aunque muchas de las causas que motivan las casuísticas comentadas más arriba pueden ser comprensibles, lo cierto es que suponen un empobrecimiento de las capacidades intrínsecas de la Web 2.0, un desaprovechamiento de las posibilidades de diálogo y conocimiento.

Poco se puede hacer ante la falta de audiencia, al menos en lo que a diálogo propiamente dicho se refiere, pero en el resto de fallos, el blogger, si es que realmente está interesado en establecer un diálogo, debería doptar medidas para reconducir la situación.

Artículos en este blog relacionados

viernes, 27 de agosto de 2010

Ideas sobre comunicación y cognición 2.0 (II). Infografías

Introducción

Me resulta llamativo el extraordinario auge que observo en la presencia de infografías como parte del contenido de artículos en blogs, con frecuencia como parte nuclear y articuladora del discurso e, incluso, en bastantes casos, como contenido único del artículo.

Las infografías no son realmente nada nuevo. LLevan años estando presentes, por ejemplo, en atlas de diversas materias, como ilustraciones de conceptos complejos, como pósters en congresos...

En cierto modo, las 'slides' que utilizan programas de storyboard como el conocidísimo Powerpoint, son una forma sencilla de infografía...y existen infografías que parecen construidas a base de enlazar en una única composición varias de esas 'slides'.

¿Qué valor cognitivo y de comunicación tienen las infografías? ¿Qué mérito y qué eficacia?

El valor de las infografías

Generar una buena infografía considero que supone un importante esfuerzo de estructuración y conceptualización del conocimiento, un esfuerzo que, sin duda, paga dividendos de aprendizaje al propio 'compositor' ayudándole en la ordenación de sus propios conocimientos. A esto se añade un trabajo complementario de diseño gráfico para conseguir un aspecto atractivo. El blogger, o lo que sea, que genera una infografía original merece mucho crédito.

El blogger que simplemente utiliza una infografía ajena, en el fondo lo que añade es viralidad, reenviar un conocimiento ya generado. Escaso es el mérito aunque pueda añadir valor a sus seguidores fieles.

Pero, quizá, desde un punto de vista cognitivo y de comunicación sea más interesante razonar cómo se percibe desde el lector.

Creo que el valor cognitivo y educativo de una infografía es muy alto cuando se están explicando conceptos o fenómenos que implican la presencia de formas espaciales complejas, cuando despiezan elementos compuestos, cuando se señalan partes de un todo.

Se me ocurre que el futuro podrían ser las videoinfografías, es decir, vídeos anotados con textos o imágenes (en realidad esto ya existe) y, en este caso, podrían ser especialmente aptos para explicar formas espaciales tridimensionales, o movimientos no planos. De hecho, y en el entorno de la educación digital, hace unos meses que tuve la oportunidad de contemplar un brillante video que explicaba los movimientos de la tierra (rotación, traslación, etc) así como el volumen relativo y movimiento del resto de planetas del sistema solar. Era realmente clarificador al tiempo que atractivo y espectacular.

El peligro de las infografías

A cambio de ese poder estructurador y de la capacidad explicativa, se corre el riesgo de perder información de detalle, de no captar conceptos abstractos o intangibles o de proporcionar una visión en exceso simplificada.

Será casi un arte por parte del editor de infografías el utilizarlas para expresar las ideas a las que mejor se adaptan y para recurrir al texto u otros recursos en el resto de los casos.

Además, pienso que las infografías pueden favorecer los receptores 'vagos', receptores que quieren el conocimiento de una forma simple, rápida, sin mucho esfuerzo ni análisis. La infografía pone gran parte del esfuerzo cognitivo en el lado emisor facilitando sin embargo, la vida y el aprendizaje del receptor... siempre que no se acomode demasiado.

La 'vagancia cognitiva' es un peligro que acecha a todo el mundo 2.0 en que cada vez tiene más aceptación 'lo corto' como el microblogging, el SMS o el mensaje instantáneo y 'lo fácil' como el vídeo... y la infografía.

La vagancia del receptor puede ser un desafortunado daño colateral del meritorio esfuerzo cognitivo, comunicativo y de diseño del emisor.

Artículos en este blog relacionados

miércoles, 25 de agosto de 2010

Ideas sobre comunicación y cognición 2.0 (I). Blogging versus microblogging

Introducción

Inicio con éste una serie de artículos sobre distintos aspectos relacionados con la comunicación y la gestión del conocimiento en la Web 2.0 y los Social Media que en las últimas semanas se me han ido viniendo a la cabeza. No sabría si clasificarlas como conclusiones provisionales, si como hipótesis, si como simples ocurrencias, ya que son opiniones basadas en la experiencia, sí, pero sin una auténtica apoyatura de datos o teorías. Al final las he bautizado como 'ideas' y, por tanto, nociones sujetas a discusión y revisión.

Y el primer tema que quisiera tratar es el diferente comportamiento y utilidad de blogs y microblogs (típicamente Twitter) en lo relativo a la transmisión del conocimiento.

Blogs

Aunque el mundo de los blogs parece perder terreno, al menos transitoriamente, con el emergente microblogging, creo que son herramientas con diferentes utilidades y características, tan diferentes que, de hecho, no simpatizo mucho con el nombre de microblogging que se concede a herramientas como Twitter.

Hay muchos diferentes tipos de blogs (y no incluyo siquiera los videoblogs o fotoblogs, sino que me centro en los blogs tradicionales con predominio del texto) pero aunque realmente, los intereses, capacidades e intereses del blogger definen su verdadero contenido y características en cuanto a comunicación y cognición, en general diría que lo primero que exige un blog es un cierto 'expertise' entendido, eso sí, en sentido amplio: expertise puede ser conocimientos profundos sobre una materia (quizá el expertise propiamente dicho), pero también puede ser el 'estar a la última' o el saber detectar, enlazar y comentar los mejores contenidos sobre un tema en otros blogs o medios digitales. En cualquier caso, el blogger suele aportar un conocimiento diferencial, específico y valioso para su público.

Además, y por la naturaleza textual del blog, este medio requiere una cierta estructuración del contenido y, presumiblemente, un nivel al menos básico de revisión del mismo.

Por todo ello, diría que los blogs proveen un contenido en general de mayor calidad conceptual y de mayor profundidad.

También permiten, al menos en el estado actual de las cosas, un diálogo más ordenado con los lectores (aunque de menor orden que, por ejemplo, el que se puede producir en foros).

A cambio, el blog exige un esfuerzo que puede provocar la discontinuidad en las actualizaciones, que se dejen de tratar temas relevantes, que se encuentre al margen de la actualidad o, incluso, que se abandone.

En ese sentido, los blogs pueden proporcionar conocimiento más profundo y estructurado, pero también más fragmentario.

Microblogging

Por su parte, el microblogging es un tipo de herramienta que se caracteriza por su agilidad y por su simplicidad.

No creo posible el exponer o debatir un concepto de un mínimo de complejidad a través del microblogging, al menos entendiendo el microblogging tal y como se concibe en Twitter (longitud limitada de los mensajes). Tal vez sería posible en un microblogging al estilo Yammer pero, realmente, considero a Yammer como un tipo de herramienta diferente aunque frecuentemente se agrupe en la misma categoría de microblogging.

A cambio, el microblogging ofrece, por un lado, una enorme simplicidad lo que facilita el que alcance a mayores audiencias y, por otro, una agilidad extraordinaria lo que permite un seguimiento rabioso de la actualidad y una difusión a enormes velocidades de hechos, noticias, acontecimientos...conocimientos, en cierto sentido.

Si uno de los pilares de la cultura 2.0 es la participación de las personas y la construcción conjunta del conocimiento, el microblogging funciona de forma excelente como mecanismo de contacto y de viralidad.

Complementariedad

Blogging y microblogging ofrecen dos visiones, dos posibilidades diferencias para la publicación, estructuración y transmisión del conocimiento. Los blogs tienden a ocuparse del conocimiento más en la dimensión de la profundidad, mientras que el microblogging favorece la horizontalidad, la difusión, la viralidad, el alcance.

Si esto es así, la conclusión es que, probablemente, se trate de herramientas complementarias. De alguna forma, los blogs aportan los ladrillos del conocimiento y el microblogging la argamasa.

La suma parece permitirnos construir enormes castillos de conocimiento.

lunes, 23 de agosto de 2010

Sobre la muerte de la web: el ruido y las nueces

El pasado 17 de Agosto, la revista Wired publicó un artículo firmado por Chris Anderson (su redactor jefe y el autor de libros tan relevantes como 'Gratis' y 'La economía Long Tail') y por Michael Wolff.

El artículo tenía un título provocativo, 'The Web is dead. Long Live the Internet' y, en efecto, ha levantado una gran polvareda y generado multitud de comentarios y debates.

Dado el interés que tengo por el autor principal del artículo, y dadas las amplias repercusiones que éste ha traído consigo, me ha apetecido hacer un post que intentase resumir el contenido del artículo y en el que poder ensayar una opinión propia.

El artículo se desarrolla en dos columnas, una firmada por Chris Anderson que se titula 'Who's to blame: Us', que se centra más en la experiencia y necesidades de los usuarios, y la otra firmada por Michael Wolff titulada 'Who's to blame: Them' y que se concentra en la perspectiva de negocio.

¿Qué nos dice Chris Anderson?

En primer lugar, y constituyendo lo que es, probablemente, la base de su argumentación, Anderson afirma que cada vez se produce un mayor uso de aplicaciones en Internet, frente al uso de la web propiamente dicha.

Entre las aplicaciones que menciona a modo de ejemplo se encuentran: correo electrónico, Twitter, Facebook, Skype, Mensajería Instantánea, agregadores RSS, Pandora o Xbox Live.

Según Anderson se trata de plataformas semi-cerradas (frente al modelo abierto de la web) que utilizan Internet como transporte, pero que no hacen uso de la web propiamente dicha, plataformas que, además, Google no puede rastrear.

Anderson indica que esto se debe al éxito del 'modelo de computación iPhone' y, además, aporta el dato de que, según Morgan Stanley, en cinco años los accesos a Internet desde móvil superarán los accesos vía PC.

Anderson también afirma que Internet está alcanzando la madurez y que, en esa situación, se recrudece el control por el negocio y empieza a valorarse, más que la apertura, otros valores como la fiabilidad, la sencillez, la comodidad (convenience), la calidad de servicio. Esto puede llevar a modelos de negocio Freemium (existe una versión reducida en funcionalidades o periodo de disponibilidad que es gratuita y una versión de pago con las características completas del producto o servicio).

En los últimos párrafos de su artículo, Anderson parece querer decir que todo esto aplica fundamentalmente, a la parte comercial de Internet, pero no a la 'generative web' donde cada persona o empresa es capaz de expresarse, aportar en busca de expresión, atención, reputación, etc.

¿Qué nos dice Michael Wolff?

En primer lugar, y poniendo como ejemplo la compra por parte del ruso Yuri Milner del 10% de Facebook, Wolff afirma que los hombres de negocio están tomando el control de Internet, lo que impone un nuevo estilo.

Wolff afirma que desde el nacimiento de Internet ha habido dos movimientos, unos por destruir negocios incumbentes y otro por tomar el control de los mercados creados por los nuevos servicios. En ese movimiento de control, y para el caso de Internet, se menciona a Netscape, Amazon y Yahoo pero Google supone de alguna forma la culminación, el ejemplo paradigmático...y el mayor poder nunca visto de una empresa.

Además, resalta las dificultades que tradicionalmente han tenido las empresas para convertir la creciente audiencia de la web en clicks hacia sus páginas así como la baja calidad de estos click en el sentido de que proceden en muchos casos de una búsqueda en un motor como Google (sin que ello implique, por tanto, la más minima lealtad a la marca). Con todo ello, parece que Wolff quiere dar a entender que la web no es una plataforma demasiado efectiva ni para construir marca, ni para monetizar la publicidad, ni para hacer dinero con ella.

En ese contexto, Wolff entiende que era necesario un nuevo modelo, un modelo más cercano al negocio tradicional de contenidos en que no primase la tecnología sino el contenido en sí mismo. Y entiende que Steve Jobs, con modelos como el de iTunes o el lanzamiento del iPad, está impulsando ese nuevo modelo que, en el fondo, es antiguo, es la vuelta a la primacía de los contenidos frente a la tecnología.

Mis consideraciones 1: ¿De qué hablamos cuando hablamos de la Web?

Un punto que creo importante para entender de qué estamos hablando al mencionar la palabra 'web' (no olvidemos que a quien se condena a muerte es a la web, no a Internet) y que, sin embargo, en el artículo original no se detienen a explicar con la claridad que yo creo merecería el caso, es qué se entiende exactamente por 'web'.

Los autores parecen referirse a contenido HTML, servido a través del protocolo HTTP y accedido a través de un navegador. Y esta definición encajaría bastante con lo que fue realmente el origen de la web aunque, si bien académicamente muy correcta, puede resultar limitada e incluso confusa en el estado actual de la web.

No queda claro, por ejemplo, si en el caso de que el contenido se sirva como XML, eso se considera Web. Tampoco queda claro si un vídeo servido como un objeto embebido en una página HTML es Web o no (más sobre esto en el siguiente punto). Tampoco queda claro si el uso de protocolos diferentes de HTTP por parte de un navegador (por ejemplo, FTP) se considera Web o no.

El saber de qué hablamos realmente es importante porque, por ejemplo, muchas aplicaciones mencionadas son accesibles a través de la web. ¿Dónde está, pues, la frontera?

Creo que al artículo no delimita bien este punto y no sabemos, por tanto, con precisión, qué es lo que está condenando a muerte.

Mis consideraciones 2: La importancia real del descenso del tráfico

Aunque los autores no se detienen mucho a comentarlo, parte del razonamiento de Anderson se basa en el descenso del uso de la web y se apoya en un gráfico (el que se muestra a la izquierda y que ha sido ampliamente reproducido en diferentes fuentes) en que parece demostrarse el descenso de tráfico de la web como prueba y síntoma de su declive.

Tengo sobre este gráfico, no obstante, dos prevenciones, dos dudas que sin embargo creo que puedo poco más que expresar.

Por un lado, cuando se habla de 'vídeo', que es el bloque que mayor crecimiento de consumo de tráfico experimenta, me gustaría conocer qué se incluye en ese apartado. ¿Se habla sólo de tráfico de vídeo sobre IP generado por soluciones de videoconferencia y telepresencia? ¿Se incluye el tráfico generado por accesos a YouTube y similares? ¿El tráfico de vídeo embebido en páginas web? La respuesta podría relativizar la importancia de la caída de tráfico de la web frente al vídeo si dentro del concepto de 'vídeo' se incluyese el tráfico de vídeo accedido como contenido embebido en la web.

Por otro lado, y quizá más relevante, si el tráfico se mide en paquetes o tasas similares, es decir, en un tipo de medida que no matiza de ninguna manera la naturaleza del tráfico, los resultados pudieran malinterpretarse. Quiero decir que, según este gráfico, el gran crecimiento de tráfico en los últimos diez años se produce en vídeo y P2P a costa de la web. Sin embargo, es bien conocido que el P2P y el vídeo son dos tipos de uso de Internet que precisan un gran ancho de banda, que generan mucho, muchísimo más tráfico (en paquetes) que la web (HTTP por si mismo, es un protocolo bastante ligerito y HTML es un contenido no muy pesado). Es decir, que la comparativa de tráfico puede no reflejar, estoy convencido que no refleja, la perspectica del usuario del empleo de un tipo de solución u otra. El usuario puede perfectamente tener la sensación de que le aporta mucha más información, mucha más utilidad y que invierte mucho más tiempo en la web y, sin embargo, estar generando más tráfico a través de aplicaciones P2P o por vídeo.

Mis consideraciones 3: Aplicaciones versus Web

Dependería mucho de qué entiendan exactamente los autores por 'Web' para matizar el razonamiento que sigue, pero lo cierto es que no me queda clara esa contraposición que hace Anderson entre Web y aplicaciones.

Algunas de las aplicaciones que se mencionan (Twitter, Facebook, agregadores RSS, correo electrónico,...), aunque puedan ser accedidas mediante aplicaciones stand-alone o C/S específicas, especialmente mediante dispositivos móviles, disponen también de accesos basados completamente en la Web (entendida en el modo más restrictivo y tradicional, esto es, HTML servido mediante protocolo HTTP y leído mediante un navegador).

Facebook es perfectamente accesible vía web, al igual que Twitter, o soluciones de correo electrónico como la de Gmail, etc

Si el razonamiento de Anderson se fundamenta en la contraposición aplicaciones versus Web, esa presunta contraposición debería ser muy clara... y yo no la percibo como tal.

Mis consideraciones 4: Modelos de negocio y monetización de Internet

Un punto que se menciona en el artículo y que, sin significar realmente la muerte de la web, sí creo que es un debate profundo y que puede cambiar, no ya la web, sino Internet en su conjunto en los próximos años, es acerca de los modelos de negocio, del hecho de que los hombres de negocio tengan puesta sus miradas en Internet y que sea necesario encontrar modelos sostenibles de negocio, identificando el valor por el que los internautas están dispuestos a pagar y consiguiendo que eso sea un pilar suficiente para mantener de forma saludable a las empresas y organizaciones que posibilitan Internet.

No creo realista pensar que las empresas vayan a apostar indefinidamente por mantener páginas y aplicaciones en Internet si no obtienen un retorno razonable en un tiempo razonable. El propio Anderson en su libro 'Gratis', ampliamente comentado en este blog, proporciona ideas y ejemplos de cómo pudieran ser estos modelos de negocio.

La necesidad de encontrar esos modelos de negocio sostenibles y la lucha por el control de Internet, sí creo que son movimientos profundos en el mundo de la red y que pueden en pocos años reconfigurar lo que la nube es ahora mismo...aunque esa reconfiguración no tenga que pasar necesariamente por la muerte de la web y ,de hecho, considero que sólo tangencialmente tiene que ver con esa posibilidad.

Mis consideraciones 5: El título como arma de marketing

Más de un vez he reflexionado e incluso debatido en diversos foros, aunque más en el terreno de la literatura que en el de los blogs o el periodismo, la importancia del título (en libros, en artículos, en periódicos, en conferencias,...) como arma de marketing, como elemento de promoción y captación de atención. En este mundo de la economía de la atención en que el recurso más escaso es el tiempo, la propia atención, captar el interés de lectores y de Internautas es primordial y debe conseguirse en segundos.

Y ahí es donde el título o los titulares cobran su importancia. Para conseguir atención y lectores, los títulos deben ser sugerentes, interesantes, o incluso provocativos, de forma que el posible lector se detenga en ese artículo, noticia o libro.

Tengo la sensación de que el espectacular título 'La web ha muerto', en el fondo busca más la captación de lectores que exponer un hecho intelectualmente exacto. Busca atención y puede que, incluso, polémica. Y el artículo que tratamos parece haber conseguido ambas cosas pero creo que, en el fondo, ni los propios autores piensen realmente que la web haya muerto o vaya a morir, al menos en un plazo breve de tiempo.

Creo que los autores sí identifican tendencias relevantes como son en el auge de las aplicaciones, de las comunicaciones M2M, del acceso móvil, la lucha por el control de Internet, la necesidad de monetización y nuevos modelos de uso y negocio derivados, entre otras cosas, en ese creciente uso de dispositivos móviles

Y, en el fondo, eso es lo que quieren contar. Y para conseguir que leamos esas opinones recurren a un título espectacular aunque probablemente inexacto, puede que intencionadamente inexacto...

En resumen

Si tuviera que resumir mi opinión sobre el artículo en una frase, recurriría a la expresión popular para decir que hay 'mucho más ruido que nueces'.

Como decía en el punto anterior, creo que los autores identifican y explican una serie de tendencias relevantes y que, en conjunto, son realistas.

Sin embargo, la aseveración sobre la muerte de la web es ya un salto mortal, una arriesgada pirueta, probablemente más orientada a buscar el debate y la captación de atención que a afirmar un futuro cierto e inminente.

Anexo I: Enlace al artículo originalAnexo II: Enlaces a blogs que comentan el artículo

viernes, 20 de agosto de 2010

Una razonamiento improvisado sobre Twitter, Dunbar y los vínculos débiles

Ayer observaba en Twitter el número de mis 'follwers', un número que, al menos en la actualidad, considero muy, muy modesto (76 followers en el momento de escribir esto, eso sí, con una continua tendencia al crecimiento). Y pensando precisamente en la modestia del número, repasaba lo que podría ser el número típico de followers de otras personas. Veo con frecuencia que hablamos de varios cientos y, en el caso de los 'gurús', las cuentas de ciertas empresas o de las personas más relevantes, es bastante normal que hablemos de varios miles de followers.

Volví a pensar en los números mágicos que gobiernan las redes sociales y en hasta qué punto las redes sociales virtuales son un reflejo de esa realidad social del mundo analógico.

Y centrándome específicamente en el número de Dunbar, aquel que establece que el tamaño de los grupos sociales humanos es de 150, siendo un grupo el conjunto máximo de humanos en que todos y cada uno de sus miembros se conocen entre sí y saben sus relaciones entre ellos, me quedó claro que ese número no aplica al caso de Twitter o, más exactamente, que la relación que se establece con los followers no es lo suficientemente profunda, en general, como para que cuente en el número de Dunbar.

Lo austero de la comunicación en Twitter parece que no favorece las relaciones profundas y, si éstas se producen, será por mecanismos exteriores a Twitter (correo electrónico, foros, blogs, desvirtualización, etc). La experiencia personal confirma esa opinión: como caso general, las relaciones a través de Twitter son superficiales (lo que no quiere decir que no sean valiosas) y no implican el grado de conocimiento que cuenta en el número de Dunbar.

Más bien parece que la naturaleza de Twitter conduzca a vínculos débiles, agilizando enormemente, eso sí, el establecimiento de esos vínculos débiles. Y ya vimos hace tiempo, siguiendo las indicaciones de Mark Granovetter, la extraordinaria importancia de los vínculos débiles como un mecanismo de ampliar nuestras relaciones, la variedad y alcance de las mismas y para identificar oportunidades e ideas nuevas.

La experiencia personal de nuevo confirma este hecho: Twitter es muy eficiente, muy ágil produciendo nuevas relaciones (a través de los mecanismo de following, reference, etc), relaciones que suelen ser débiles pero que amplían perspectivas, y permiten descubrir personas y noticias.

Según todo lo hablado mis conclusiones serían, por un lado, que los followers de Twitter no serían del tipo de relaciones que cuentan en el número de Dunbar. Y, por otro, que Twitter favorece las relaciones rápidas, los vínculos débiles. Para profundizar en una relación virtual normalmente, junto con Twitter, convivirán otros mecanismos. Sin embargo, esa superficialidad no es negativa sino todo lo contrario, porque debido a la fuerza de los vínculos débiles, se favorece la agilidad, la creatividad, la relación, la innovación.

jueves, 19 de agosto de 2010

La economía 'freaky' de Levitt y Dubner

'Freakonomics' no es realmente un libro sobre economía.

Se trata de un ensayo de bastante difícil encuadre en una disciplina concreta. Es cierto que el 'autor intelectual' de las teorías allí expuestas, Steven D. Levitt, es economista y es cierto que algunos enfoques y parcialmente la metodología de sus investigaciones, parecen recordar a los propios de la economía, pero en realidad, y como el propio Levitt reconoce en su blog, se trata de un libro interdisciplinar o, más bien, adisciplinar que, tanto podría ser clasificado de sociología como de economía, con algún detalle de política o psicología.

Los mismos autores reconocen también que, tal y como se les ha criticado, el libro carece realmente de un tema unificador.

Antes de leer esa crítica (que se encuentra al final del libro), yo mismo le daba vueltas acerca de cuál era realmente el tema de esta obra. Mi conclusión fue que, de alguna forma, este libro trata de cómo pensar correctamente y cómo buscar las respuestas adecuadas fiándose de los datos e intentando evitar falacias y lugares comunes de la sabiduría convencional.

Levitt y Dubner insisten en la importancia de los incentivos de las personas, en entender los incentivos que empujan a cada individuo o colectivo, como forma de explicar muchos comportamientos. También nos previenen acerca de las deficiencias de la sabiduría convencional y de las opiniones de los expertos así como del peligro de la asimetría informativa.

Armados con todos estos planteamientos, los autores atacan la explicación y comprensión de problemas absolutamente dispersos y llamativos.

Así, por ejemplo, analizan los incentivos de los maestros de escuela o de los luchadores de Sumo. Con base en esos incentivos, deducen que ambos colectivos se encuentran de alguna forma empujados al engaño...y aportan estudios, ya de tipo numérico, con graves paradojas que parecen confirmar la sospecha de ese presunto engaño.

O, también, estudian el comportamiento de los agentes inmobiliarios y la historia del Ku Klux Klan lo que les da ocasión para tratar el asunto de la asimetría informativa y cómo la rotura de la misma puede ayudar a los clientes de los primeros y cómo acabó parcialmente con el poder del Klan.

Otros temas quizá aún más controvertidos que se abordan es la influencia del aborto en la disminución del índice de criminalidad o el mercado del crack y cómo se explica que, a pesar de las grandes fortunas que se mueven en ese tráfico ilegal, los traficantes 'suelen vivir con sus madres'.

También tratan de la influencia de las decisiones de los padres en el futuro de sus hijos lo que les da ocasión de hablar acerca del miedo y su uso por parte de los expertos.

Finalizan con un llamativo estudio sobre la posible influencia en el futuro de los hijos, del nombre elegido por los padres.

Un libro llamativo, polémico, iconoclasta pero bien fundamentado y argumentado, en el que creo que lo más importante, salvo que sean de nuestro interés particular, no son los problemas específicos tratados (el mercado inmobiliario, el sumo, el tráfico de crack, el índice de criminalidad, etc) sino su enfoque conceptual y el énfasis en buscar las respuestas adecuadas, de la forma adecuada, a cualquier cuestión que nos planteemos.

La edición que he manejado se completa con una larga serie de anexos que incluyen, fundamentalmente, algunos artículos en prensa y algunos posts relevantes en el blog de freakonomics.

Steven D. Levitt
Nacido en 1967, Levitt es un economista estadounidense graduado por la Universidad de Harvard en 1989 y doctorado en 1996 por el MIT. Premiado en 2003 con la medalla John Bates Clark de la American Economic Association al economista estadounidense más prometedor de menos de 40 años de edad y elegido en 2006 por la revista Time entre las cien personas más influyentes del mundo. Actualmente es profesor en la Universidad de Chicago.

Stephen J. Dubner
Escritor y periodista norteamericano nacido en 1963 y graduado por la Universidad de Carolina del Norte en 1984. Vive en New York donde colabora en periódicos como The New York Times y The New Yorker.

Puedes seguir todo lo relativo a este libro en su página oficial

Ficha técnica:
TITULO: Freakonomics. Un economista políticamente incorrecto explora el lado oscuro de lo que nos afecta
AUTORES: Steven D. Levitt y Stephen J. Dubner
EDITORIAL: Zeta bolsillo. Ediciones B
AÑO: 2005
ISBN: 978-84-9872-331-1
PAGINAS: 325

Artículos de este blog relacionados

Riesgo versus Miedo

En su libro 'Freakonomics', Steven D. Levitt y Stephen J. Dubner nos hacen algunos apuntes interesantes acerca del riesgo y su traducción en miedo.

Gran parte de la argumentación se basa en las aportaciones de Peter Sandman. Sandman nos habla de tres factores que considero relevantes, el control, la familiaridad y el terror, mientras que Steven D. Levitt y Stephen J. Dubner apuntan un tercero de su propia cosecha pero que encaja perfectamente con los otros tres: el tiempo.

factor control
Lo que más me llamó la atención fue esta afirmación de Peter Sandman:

"Los peligros que controlamos son mucho más tolerables que los que están fuera de nuestro control."

En el libro 'Freakonomics' se cita, a modo de ejemplo, cómo nos da más miedo volar en avión que viajar en coche o el posible envenenamiento de la carne que compramos, que las infecciones procedentes de la suciedad de nuestra propia cocina. En ambos casos se demuestra que no es racional tener más miedo a lo primero que a lo segundo... pero eso no cambia el hecho de que tememos más al avión y a envenenamientos externos.

Cuando se analiza, este aserto parece coincidir con nuestra experiencia personal. Sí parece cierto que cuando sentimos que controlamos la situación y podemos hacer algo para reconducirla o para evitar efectos negativos, tenemos menos miedo. No sé explicar sus raíces psicológicas, pero me parece real y, en cierto sentido, un sentido que tampoco sabría explicar muy bien, lógico.

factor familiaridad
En un sentido parecido, y según las mismas fuentes, nos producen más miedo aquellos peligros con los que estamos menos familiarizados. Así, y siguiendo las menciones del libro, nos produce más miedo que un niño maneje un arma de fuego que el que juege en una piscina...aunque las estadísticas demuestran que mueren muchos más niños en piscinas que por armas de fuego.

factor tiempo
En su aportación propia Levitt y Dubner indican que nos producen más miedo los riesgos percibidos como inminentes que los percibidos como lejanos.

"El miedo crece con mayor fuerza en tiempo presente. Por eso los expertos cuentan con él; en un mundo que se muestra cada vez más impaciente con los procesos a largo plazo, el miedo constituye un poderoso juego a corto plazo."

factor terror
Finalmente, Sandman identifica el factor terror que indica que un peligro que se considera espantoso (con criterio o no) produce más miedo. Por ello, produce más miedo un ataque terrorista que una enfermedad del corazón. En este caso, además, se uniría el factor tiempo: el ataque se produce ahora mientras que la enfermedad tiene consecuencias a medio o largo plazo.

La ecuación de Sandman
Para Sandman, al final, todo se reduce a una ecuación:

riesgo = peligro + escándalo

De esta ecuación, que creo que merecería más profundización o explicación, lo que sí me parece relevante es que, según entiendo de las explicaciones siguientes, sobre lo que con frecuencia podemos actuar es sobre el sumando del escándalo que, según entiendo, tiene que ver más con la percepción del peligro que con el peligro real (que se recogería en el primer sumando).

De alguna manera, esto se encuentra alineado con la velada acusación que sobre los expertos, como manipuladores del miedo, vierten Levitt y Dubner.

Entiendo que los peligros existen y que su traducción a miedo se ve afectada por el control, la familiaridad, el tiempo y el terror. En nuestras manos estás, pues, hasta cierto punto, y siendo conscientes de estos factores, gestionar lo mejor posible el miedo y que este no sea nunca paralizante o completamente irracional.

miércoles, 18 de agosto de 2010

La emoción en entredicho

Cada vez más, las últimas tendencias en marketing nos insisten en las emociones, en crear relaciones emocionales entre empresa y cliente, en conseguir experiencias memorables para estos últimos, en fidelizar a través de la emoción.

Parece no sólo interesante y probablemente correcto sino, incluso, más humano. El marketing emocional parece transmitir valores positivos, que nos cautivan no ya desde un punto de vista profesional o corporativo, sino también desde la perspectiva personal.

Sin embargo, una frase del libro 'Freakonomics' de Steven D. Levitt y Stephen J. Dubner, nos pone en guardia. Hablando de los expertos y de la audacia con que deben exponer sus teorías, nos dicen:

"Su mejor baza ... es captar las emociones del público, porque la emoción es el enemigo del pensamiento racional."

Con independencia de su valor objetivo, esta frase desenmascara una cierta forma de hacer marketing, incluido o especialmente, el marketing que trabaja con las emociones.

Si no se trata de crear experiencias memorables sino de evitar el pensamiento racional, si no se trata de ver a la persona como un todo sino sólo llegar a lo emocional, si no se trata de seducir sino de engañar, este marketing emocional puede ser efectivo, seguramente lo es, pero tal vez no sea tan honesto ni tan humano como pensábamos o queríamos pensar.

martes, 17 de agosto de 2010

La audacia de los expertos

¿Nos parece que, en ocasiones, los presuntos expertos están más seguros de sí mismos de lo que los estudios o datos que exhiben parecen avalar? ¿Nos asombra su aplomo y convencimiento? ¿Nos parecen extremados o vehementes en sus afirmaciones?

Steven D. Levitt y Stephen J. Dubner, en su libro 'Freakonomics', nos proporcionan una posible explicación:

"... los expertos cuyas teorías huelen a circunspección o matiz con frecuencia no reciben excesiva atención. Un experto debe mostrarse audaz si espera convertir su teoría de andar por casa en sabiduría convencional."

De alguna forma, la audacia forma parte del "expertise marketing". La inseguridad, las matizaciones, las simples probabilidades, no resultan atractivas para el gran público ni confieren a la persona que las exhibe el marchamo de experto.

No resulta alentador desde un punto de vista intelectual... pero tiene sentido visto desde el marketing y la marca personal.

lunes, 16 de agosto de 2010

Una fantasía social (II): La red social como servicio público

Después de haber concebido la über-red, esa red social única en la que todas las personas estuviesen presentes, le daba vueltas a cómo sortear el peligro tanto económico como de simple acumulación de poder que suponía una red social única, el que una herramienta tan potente estuviese concentrada en unas solas manos.

Y pensé que la única forma de garantizar tanto la evolución técnica y operativa como la seguridad de la información, era convertir la red en un servicio público, en una prestación ofrecida por las administraciones públicas, y poner su dirección y gestión en manos de esas administraciones públicas, de los estados.

Los estados se encargarían de las inversiones necesarias, igual que se invierte en infraestructuras o en mejorar la asistencia sanitaria. Y los estados velarían por la seguridad de la información, por la simetría en el trato a los usuarios, por la neutralidad de la red social.

La cosa se complicaba al considerar que, además, la administración que debería velar por el desarrollo y operación de la Über-red, debería ser una administración internacional, puesto que las fronteras no tienen sentido en la red. Y lo malo es que no identificaba, tal vez ni siquiera fuese deseable, ningún tipo de supra-estado internacional. Quizá la ONU sería lo que más se podría aproximar.

Y así se cerraba el círculo de la fantasía, concibiendo una única red social, una Über-red, prestada como servicio público por una organización internacional.

Pero luego se venían a mi mente las demostradas carencias en cuanto a capacidad resolutiva y operativa de las organizaciones internacionales y, en muchos casos, de las administraciones públicas estatales. Acudían a mí retazos de noticias que hablaban de la falta de colaboración entre estados y, lo que es mucho peor, de abusos de poder y limitaciones de libertad en muchos países. Me preocupada la incapacidad frecuente de las administraciones para impulsar la innovación, la productividad y la competitividad.

Y así, de repente, la fantasía se desvaneció. Sonaron las doce campanadas y la carroza se convirtió en calabaza. Salí corriendo del palacio de los sueños.

Y ya entre fogones y rodeado de cenizas, pienso que, a lo mejor, la fantasía se realiza pero que simplemente aún no estamos preparados. Que tal vez sea mejor dejar a los acontecimientos transcurrir por sí mismos. Que si Internet y las redes sociales se han desarrollado casi por sí solas, sin apenas control y dirección central, puede que ésta sea la mejor opción, al menos por el momento.

De momento, sigo disfrutando de Internet, de la Web 2.0 y de los medios sociales. Y ¡quién sabe!, tal vez algún día, alguien venga preguntando acerca de un zapatito de cristal...

Artículos de este blog relacionados

domingo, 15 de agosto de 2010

Una fantasía social (I): La Über-red

Hace unos días pensaba en la situación actual de las redes sociales en Internet y en cuál podría ser su evolución probable... y la deseable. Encadené una serie de razonamientos que, al final, me llevaron a unas conclusiones un poco sorprendentes. Lo cierto es que ni esa visión final en la que acabé, ni siquiera algunos de los pasos intermedios, me acabaron de convencer ni como del todo probables ni como del todo deseables. Así que, al final, más que un razonamiento, y más que unas conclusiones, decidí considerarlo como una fantasía, como una fantasía social.

Eso sí, me apenaba no dejar reflejada en alguna parte esa cadena de pensamientos, esa fantasía. Así que he decidido convertirla en dos o tres artículos en este blog bajo el título común de "Una fantasía social" y este artículo constituye el primero de la serie.

Todo empezó pensando acerca de qué es lo que diferencia una red social de otra, por qué nos unimos a una red social y, sobre todo, por qué permanecemos y sómos miembros activos de una red social.

Y la respuesta era casi evidente. No me parece que importe excesivamente la funcionalidad de la red social. Pueden estar bien algunos 'adornos', puede estar bien que nos permitan hacer cosas que otras redes no, pueden ser interesantes los conceptos como las aplicaciones de Facebook pero, al final, lo que realmente importa son los contactos que establecemos y las conversaciones que mantenemos. Si podemos establecer contacto con las personas que nos interesan y mantener conversaciones gratificantes, ya sea desde un punto de vista intectual, profesional o lúdico, esa red será valiosa. Si no existen esos contactos y esas conversaciones, todo adorno, toda funcionalidad extra, será superflua.

Y dado que las conversaciones que se establezcan dependen ya de las personas con las que contactemos, me pareció que, en el fondo, lo verdaderamente relevante de una red social es que podamos establecer contactos para lo cual, la condición sine qua non es que las personas estén disponibles para contactar. Digámoslo más claro: lo importante es la base de usuarios de la red social.

Y aceptado eso, me dije que lo realmente util sería, no la existencia de múltiples redes sociales, sino la existencia de una única red social, una red social donde estuviesen presentes absolutamente todas las personas, donde pudiéramos contactar potencialmente con cualquier persona que pudiese ser de nuestro interés. Sería la red total, la Über-red.

De alguna forma, con su aplastante predominio, Facebook es la red que más se aproxima a esa idea. Sin embargo, es cierto que existen redes especializadas, de notable éxito, que parecen añadir valor precisamente por su especialización, por ofrecer un público, por decirlo de alguna manera, de nicho.

¿Cómo se compadece la über-red con ese valor de las redes de nicho?

Pues pensé que, en realidad, esos nichos podrían ser subconjuntos dentro de la propia über-red. Lo importante de la über-red es que estén presentes todas las personas, que se pueda contactar con cualquiera, pero eso no impediría formar algo así como grupos o clubes especializados en aspectos profesionales, o en literatura, o en simple afinidad personal o en lo que fuera que los usuarios decidieran montar. Un mismo usuario podría pertenecer a diferentes clubes, donde compartiría experiencias de diferente tipo y con diferentes personas, sin dejar de estar en la misma red. Al fin y al cabo, así actuamos en el mundo analógico: tenemos nuestro círculo profesional, nuestro círculo de amigos cercanos y quizá, nuestro círculo de amigos para jugar el partido del domingo o para debatir sobre literatura o filosofía.

Sin embargo, al pensar en esta über-red, que me parecía lógica y útil, avistaba peligros. Uno es de tipo fundamentalmente económico: si existe una única red se elimina la competencia, y si se elimina la competencia se eliminan los incentivos para ofrecer precios baratos o nulos, y para la mejora funcional y tecnológica de la red. Por otra parte, el poder que tendría esa red social sería enorme y potencialmente peligroso si no fuese manejado con una criterios éticos y de servicio.

Es para intentar salvar estos peligros, para lo que hice una nueva pirueta mental y llegué al siguiente nivel de la fantasía. Un siguiente nivel más audaz, tal vez menos creíble, aunque quizá algo más original.

Pero ese nuevo nivel, será objeto ya de otro artículo...

sábado, 14 de agosto de 2010

Apuntes sobre sabiduría convencional

En el artículo 'Principios de economía Freaky', el primero de los dedicados al libro 'Freakonomics' de Steven D. Levitt y Stephen J. Dubner, se mencionaban tres principios, el segundo de los cuales era:

"La sabiduría convencional a menudo se equivoca".

En este artículo repasamos algunas notas, algo dispersas eso sí, sobre la naturaleza y fuentes de la denominada sabiduría convencional.

Según nos cuentan los autores, el término sabiduría convencional fue acuñado por el famoso economista John Kenneth Galbraith. La definición de la Wikipedia nos habla de "ideas o explicaciones generalmente aceptadas como verdaderas por el público".

Prosiguen Levitt y Dubner afirmando que:

"según Galbraith la sabiduría convencional ha de ser simple, práctica, cómoda y reconfortante, aunque no necesariamente cierta.
...
reconocer en qué momentos la sabiduría convencional es falsa... constituye un buen comienzo para formular preguntas
".

Levitt y Dubner nos identifican tres fuentes de sabiduría convencional:
  • Expertos
  • Periodistas
  • Publicidad
Y señalan dos características negativas de esta sabiduría convencional:

La primera es que las fuentes de la sabiduría convencional (los autores se refieren explícitamente a los expertos, proporcionando algún ejemplo) pueden tener incentivos para actuar en beneficio propio hasta el punto de engañar.

La segunda es que "Independientemente de cómo se cree, la sabiduría convencional puede resultar difícil de cambiar".

Gran parte del libro lo dedican los autores, precisamente, a desmontar, en casos concretos, interpretaciones basadas en sabiduría convencional, a hacerse preguntas y encontrar unas respuestas muchas veces sorprendentes.

Independientemente ya de estos autores y de este libro, sí que parece un buen ejercicio para el pensamiento, para el análisis y para la innovación, desafiar los conceptos y las ideas, cuestionar (que no descalificar) la sabiduría heredada y hacerse preguntas con mente abierta.

viernes, 13 de agosto de 2010

Internet y simetría de la información: implicaciones éticas y económicas

En economía se maneja el concepto de asimetría informativa para denominar los casos en que, en una transacción o en la toma de una decisión, una de las partes posee más o mejor información que la otra.

No es necesario decir que quien posee la mejor información se encuentra en ventaja y puede sacar provecho de ello.

Steven D. Levitt y Stephen J. Dubner, en su libro 'Freakonomics', reflexionan sobre ello y sobre el impacto que Internet supone en este aspecto como mecanismo equilibrador y democratizador.

En primer lugar, plantean de forma simple el problema:

"En una transacción, resulta habitual que una de las partes disponga de mejor información. En el lenguaje económico eso se denomina asimetría informativa. Aceptamos como una de las verdades del capitalismo el que alguien (normalmente un experto) sepa más que otra persona (normalmente un consumidor)."

Antes de continuar, un pequeño excurso, una matización: en la teoría capitalista más pura en realidad no se aboga, entiendo yo, por la asimetría informativa. De hecho, lo que en los estudios microeconómicos se denomina competencia perfecta supone la transparencia del mercado, esto es, que las empresas y los consumidores tengan información completa y gratuita o, si se prefiere, que exista una completa simetría informativa. Otra cosa es que esta competencia perfecta sea algo así como una utopía y la asimetría informativa se encuentre entre nosotros 'de facto'.

Sin embargo, y como destacan estos mismos autores, esa dinámica de la asimetría informativa se ve seriamente afectada por la aparición de Internet.

"Como medio, Internet demuestra una enorme eficacia a la hora de trasladar la información de quienes la poseen a quienes la desconocen
...
Internet ha demostrado ser especialmente provechosa en las situaciones en las que un encuentro cara a cara con un experto podría haber exacerbado el problema de la asimetría informativa, esto es, cuando un experto utiliza su información privilegiada para hacernos sentir estúpidos, estresados o infames.
"

Internet actúa como un eficacísimo mecanismo difusor de información, borrando parcialmente las fronteras entre el experto y el que no lo es, haciendo más simétrico el uso de la información, convirtiendo el mundo, si se quiere, y usando la expresión de Thomas L. Friedman, en un mundo más plano, al menos desde ese punto de vista de la información y el conocimiento.

Esto parecen ser buenas noticias, al menos si nos consideramos como consumidores. Al eliminar asimetrías informativas, Internet quita una parte del poder a expertos y empresas para entregárselo a los consumidores, haciendo comparativamente más ventajosas las transacciones de éstos con las empresas. El consumidor gana poder y protagonismo.

Existe otra consecuencia. Si volvemos al concepto microeconómico, al igualarse el acceso a la información, al ser ésta cada vez más completa y, además, gratuita, nos acercamos al estado de competencia perfecta. En ese estado, los precios tienden a bajar. Esto parecen ser, de nuevo, buenas noticias para nosotros como consumidores.

¿Dónde reside el peligro?

En la medida que la competencia aumenta, a medida que los precios bajan, las empresas pueden verse obligadas a severas medidas de reducción de costes, de recorte de gastos. Y esto pudiera afectar a empleo y a sueldos.

¿Y desde el punto de vista de la ética?

Parece lógico pensar que cuando la información de la que estamos hablando va más allá del mundo de los negocios y abarca, por ejemplo, la política, los partidos, etc, la eventual desaparición de la asimetría de la información contribuiría a una democracia muchísimo más madura, me atrevería a decir que más justa.

La mitigación también de la asimetría de información en campos como la ciencia, la tecnología, el derecho, la sanidad, etc tambien pueden aumentar e igualar las oportunidades vitales y profesionales, acercándonos al concepto de meritocracia que la Web 2.0 abandera

¿Qué reversos tenebrosos nos podemos encontrar en este caso?

Por una parte, aunque exista igualdad de oportunidades teóricas, aunque se eliminen desigualdades por raza, sexo o clase social, pueden generarse desigualdades por capacidades intelectuales en un mundo mucho más competitivo en información y conocimiento.

¿Y qué decir de la amenaza que sufre la privacidad?

Es evidente que Internet contribuye de una forma decisiva a eliminar o, más bien, suavizar, las asimetrías informativas. Y está claro que eso conlleva multitud de consecuencias positivas de las cuales en este artículo sólo se esbozan algunas. Pero también es preciso tener en cuenta que existen peligros y contrapartidas de las que, también, únicamente, hemos dado alguna pincelada.

Creo que, en cualquier caso, el balance es netamente positivo.

jueves, 12 de agosto de 2010

La volatilidad de la reputación online

En las últimas semanas, el mundo de la tecnología se ha visto agitado por algunos hechos que afectan a gigantes del sector, a algunas de las compañías con mejor reputación en la red. Me estoy refiriendo, por un lado, a los problemas recientes con el iPhone de Apple o el debate sobre neutralidad de la red surgido a partir del acuerdo entre Google y Verizon

Con independencia del fondo del asunto que, en ambos casos, es muy interesante y ha dado y dará mucho que hablar, lo que me ha llamado la atención es la reacción de 'la red' a estos dos hechos.

Tanto Apple como Google son dos empresas exitosas, que se proponen como ejemplos de innovación, de comprender sus mercados, de crear nuevos conceptos. Dos empresas de las que crean crean clientes fan. Dos empresas muy apreciadas especialmente entre los clientes más tecnológicos, los máyores usuarios de Internet y, probablemente, los que más contribuyan, mediante blogs, comentarios, tweets, etc a la reputación online de las empresas y organizaciones.

No tengo datos objetivos, sólo mi propia observación de los medios digitales y sociales que sigo, pero me parece que la reacción ante estos dos hechos ha sido furibunda. Los otrora héroes de la tecnología se han convertido rápìdamente en villanos y han sido criticados con abundancia y dureza. Calculo que, especialmente en el caso de Apple, las aguas volveran a su cauce rápidamente y, si no se reproducen fallos similares en un futuro inmediato, recuperarán su buena imagen.

Sin embargo, me ha resultado muy llamativa la aparente fragilidad, la volatilidad de la reputación corporativa, especialmente de la reputación online, que estos dos casos demuestran.

Si esto le ocurre nada más y nada menos que a Apple y Google ¿qué no les puede ocurrir a compañías menos apreciadas? ¿Cuánto esfuerzo es necesario dedicar a la construcción de la reputación corporativa? ¿Vale la pena esa inversión si un solo error la puede echar abajo en cuestión de días, tal vez horas?

La verdad es que no sé si la conclusión es que hay que intensificar los esfuerzos en gestión de la reputación online (Online Reputation Management, ORM) o, todo lo contrario, si esos esfuerzos no valen la pena.

De momento parece que la tendencia es a invertir más y más en conocer y gestionar la reputación online. Probablemente sea lo correcto, pero convendría analizarlo con cuidado.

miércoles, 11 de agosto de 2010

La falacia de la correlación

Me encuentro con mucha frecuencia, especialmente en literatura sobre management, con razonamientos del tipo:

"La empresa X, hizo Y y consiguió Z"

donde X suele ser una empresa de gran renombre (en los ejemplos más clásicos podría ser General Electric, General Motors o FedEx y en los más modernos empresas como Google o Apple), Y es la aplicación de una técnica, estrategia u acción directiva de algún tipo (reingeniería de procesos, aplicación de filosofía CRM, uso de JIT, búsqueda de océanos azules, empleo de social media...) y Z es algún tipo de brillante resultado empresarial (cuota de mercado, nivel de ventas, EBITDA, posicionamiento, imagen de marca, fidelidad de clientes...)

Aunque no siempre se explicita, lo que se nos quiere decir es que

"La empresa X, consiguió Z porque hizo Y"

es decir, se aplica, de forma explícita o no, una relación causal entre la acción Y y el resultado Z.

Nada que objetar... si estuviese claramente establecido y demostrado que realmente Z es causado por Y. Pero este nivel de rigor, o no existe o, al menos, no se explicita en los libros o artículos a que me refiero... y creo que con frecuencia no existe tal demostración... entre otras cosas porque tampoco existe la relación de causalidad.

Creo que en este tipo de razonamientos se incurre, de forma intencionada o no, quizá por propia ignorancia o error intelectual del autor, en dos tipos de fallos que agruparé en lo que denomino falacia de la correlación.

La correlación, sin entrar en muchas honduras, es una relación entre dos variables que evolucionan de forma sistemática de manera similar: si una aparece, aparece la otra y si una aumenta, aumenta la otra en un nivel más o menos proporcional.

Muy importante: la causalidad implica correlación, pero la correlación no implica causalidad.

El primer error de razonamiento, quizá el menos relevante en este caso, es atribuir una correlación a dos acontecimientos sin base suficiente. Es decir, puede darse una simple casualidad (que no causalidad). Si los estudios no son suficientemente rigurosos, si la muestra es pequeña o si existen sesgos interesados, podemos estar hablando de que el hecho de que la acción Y y el resultado Z hayan aparecido juntos es meramente fruto de la casualidad, sin que exista ni correlación ni mucho menos causalidad.

El segundo error de razonamiento, el que realmente constituye la falacia de la correlación, es interpretar como causalidad lo que en realidad es una mera correlación. El que exista una correlación entre dos variables A y B puede, típicamente, deberse a tres posibilidades
  • A es causa de B
  • B es causa de A
  • Tanto A como B están causadas por una tercera variable C
Por tanto, si la empresa X hizo Y y consiguió Z puede suponer que, en efecto, Z está causada por Y, como el autor insinúa, pero también que sea el hecho Z lo que haya provocado Y (esto, en los casos de literatura empresarial sería extraño), que Z sea causado por un hecho diferente, W, que a su vez, es causa, de alguna manera, de Y. También es posible que el efecto Z sea provocado por multitud de causas (de las que Y puede o no ser una de ellas) o que, simplemente, Y no tenga nada que ver con el efecto Z.

En el fondo, por lo que estoy abogando, es por mayor rigor en los razonamientos y por no atribuir, o insinuar, causalidades donde sólo existe correlación o mera casualidad...o no sabemos, siquiera, cuál es la relación que existe.

Esta forma de pensar, esta objeción a los razonamientos en la literatura sobre management, la llevo considerando desde hace años y siempre he deseado poder exponerla de alguna forma (cuando estoy leyendo el libro que sea, no tengo a quien contárselo).

Por eso, me ha hecho gracia, y es lo que me anima a transmitir la idea en este artículo, encontrarme el razonamiento, casi con palabras idénticas a las que yo tenía en mi mente, en el libro 'Freakonomics', de Steven D. Levitt y Stephen J. Dubner. De hecho, de alguna manera, esta objeción se corresponde con el segundo principio de la economía freaky que nos decía que "La sabiduría convencional a menudo se equivoca" aunque, en los casos a que me refiero, no se trata de una sabiduría tan convencional sino la de los teóricos gurús del management.

Así lo expresan los autores en el libro mencionado, hablando de una falsa relación entre el florecimiento de la economía en los años 90 con el descenso de las tasas de criminalidad en EEUU y de la falsa relación entre el dinero invertido en campañas electrorales con los resultados en votos obtenidos:

"Podría resultar lógico creer que es así, como habría parecido lógico que la floreciente economía de los noventa contribuyera en la reducción de la criminalidad. Pero el simple hecho de que dos cosas guarden correlación no implica que una sea la causa de la otra. Una correlación significa, sencillamente, que existe una relación entre dos factores -llamémoslos X e Y-, pero no explica el sentido de dicha relación. Es posible que X cause Y; tambiñen es posible que Y cause X; y también es posible que tanto X como Y sean causadas por algún otro factor, Z."

En management, como en cualquier faceta de la vida, es importante razonar corectamente para obtener conclusiones útiles. Apliquemos y exijamos, pues, un poco de rigor.