Mostrando entradas con la etiqueta Privacidad. Mostrar todas las entradas
Mostrando entradas con la etiqueta Privacidad. Mostrar todas las entradas

miércoles, 12 de marzo de 2025

Grandes modelos de lenguaje y el derecho al olvido

Uno de los derechos de que se habla mucho en el mundo digital, con frecuencia ligado a los aspectos de privacidad, es el del derecho al olvido.

Este derecho, se podría ver comprometido, de una forma quizá insospechada, por la existencia y el uso de los grandes modelos de lenguaje o de los modelos fundacionales en general.

Antes de abordar el problema, dos breves incisos: uno para comentar en qué consiste eso del 'derecho al olvido' y otro para recordar brevemente cómo se produce el entrenamiento de los grandes modelos de lenguaje (LLM, 'Large Language Models').


El derecho al olvido


No soy jurista, así que no pretendo aportar una definición rigurosa, sólo introducir la idea por si algún lector no estuviese familiarizado con ella. Solicito ayuda a ChatGPT y obtengo una explicación que me parece perfectamente ajustada a lo que quería explicar. Me dice:


El derecho al olvido es un concepto legal y de privacidad que permite a las personas solicitar la eliminación de información personal de los motores de búsqueda, bases de datos y otras fuentes digitales cuando dicha información ya no es relevante, es inexacta o afecta negativamente su reputación. Se origina en el derecho a la protección de datos personales y la privacidad.


En efecto, esa es la idea: debido a nuestra interacción con los medios digitales, y muy especialmente, aunque no únicamente, con redes sociales, existe o puede existir una gran información en la red sobre nosotros, en muchos casos mucha información que hemos aportado voluntariamente y, en ciertos casos, una información que incluye datos personales o que posibilita la identificación.

En cualquier caso, incluso en el caso de información no personal, es posible que, en un momento dado prefiramos que esa información deje de estar en la red. El derecho al olvido, en buena medida, creo, apoyado en el caso europeo en el RGPD (Reglamento General de Protección de Datos), pretende proteger ese derecho a la eliminación de datos.

Desde un punto de vista legal, al menos hasta donde se me alcanza, lo que protege el RGPD y, por tanto, el 'verdadero derecho al olvido' que tenemos, al menos los ciudadanos europeos, se enfoca a los datos sensibles y de carácter personal. No tengo tan claro, lo reconozco, el derecho a eliminar otro tipo de contenidos como un artículo, un post, un tuit, etc.


El entrenamiento de los grandes modelos de lenguaje


Hagamos otro alto en el camino para hablar brevemente y de forma algo superficial de cómo se hace el entrenamiento de los grandes modelos de lenguaje.

En los grandes modelos de lenguaje actuales, lo que entrenamos son unas redes neuronales complejas. El entrenamiento se refleja, fundamentalmente, en el ajuste de los pesos de la red neuronal. Con base en los ajustes de esos pesos, los modelos aprenden a codificar los textos como unos vectores (los famosos 'embeddings') que albergan cierto contenido semántico; aprenden también, de alguna manera la estructura del lenguaje humano (su sintaxis y morfología); y aprenden, finalmente, y de alguna manera, una gran cantidad de conocimiento de todo tipo recogido en texto, en lenguaje.

Para eso se basan en la lectura y, en cierto sentido, 'digestión, de una ingente cantidad de texto contenido en libros, páginas web etc. En esa digestión es en lo que, metafóricamente, consiste el entrenamiento.

Es importante entender, aunque no es fácil del todo de imaginar que, aunque estos modelos, aprenden de alguna manera, no tienen para nada los conceptos simbólicos, lógicos, causales, etc que tenemos los humanos y que asociamos al conocimiento y cuya adquisición asociamos al aprendizaje. En el caso de los grandes modelos de lenguaje, de los modelos fundacionales en general, hablamos de modelos altamente probabilistas, donde el conocimiento como los entendemos los humanos, está implícito, diluido, recogido en unos pesos y unos parámetros que sólo muy indirectamente, aunque de una forma muy eficaz, tienen que ver con un verdadero conocimiento.

Aunque es 'invento mío' esta idea del 'conocimiento diluido' es importante tenerlo claro: en un gran modelo de lenguaje no hay una base de datos, o un repositorio de conocimiento donde podamos encontrar elementos de conocimiento, ni mucho menos la fuente de donde se obtuvo ese conocimiento.


La dificultad para olvidar


Esa 'dilución, que insisto que es una forma de expresarlo que me acabo de inventar para escribir este post, explica la dificultad para olvidar que presentan estos modelos de lenguaje. 

En efecto, no hay un mecanismo sencillo, probablemente ni siquiera viable, para pedirle a un gran modelo de lenguaje que elimine datos concretos, conocimientos concretos, de su 'acervo de conocimiento'. No existe ese mecanismo, o no es sencillo, porque ese conocimiento, porque los datos, porque la información factual están diluidos en el modelo. No están en ningún sitio concreto. No hay un elemento concreto, un registro de una base de datos, un link, un documento... no hay un soporte concreto para un dato o para un conocimiento sino que éste se encuentra diluido en el modelo. Y por ello es muy difícil actuar sobre él.

Esta idea está recogida de alguna forma en el último libro de Chip Huyen titulado, 'AI Engineering: Building Applications with Foundation Models', y donde, en un momento dado, nos explica:


Imagine you published a blog post that you eventually deleted. If that blog post was included in a model’s training data, the model might still reproduce the post’s content. As a result, people could potentially access removed content without your consent.


No habla explícitamente de derecho al olvido, y no se centra en datos personales sino en un artículo de un blog, pero el mensaje es el mismo.

En tecnología, especialmente en el campo del software, casi todo es posible. Supongo que, de la misma forma que chatbots basados en modelos fundacionales como ChatGPT rodean a su modelo de los famosos 'guardrails' para intentar garantizar la eliminación de lenguaje ofensivo o respuestas poco éticas, alguna forma de superposición, de protección de datos podría hacerse también orientada a posibilitar el olvido. Pero esa superposición intuyo que, caso de ser posible, sería compleja, escalaría mal, en ocasiones fallaría, penalizaría las prestaciones y, en definitiva, sería muy costosa y muy poco práctica.

Así que, siempre con la esperanza de que los ingenieros que trabajan en estos modelos puedan 'inventar' algo práctico, de momento tenemos que pensar que en aplicaciones basadas en grandes modelos de lenguaje, el derecho al olvido es muy difícil, casi imposible, de garantizar en estos momentos.


Conclusiones


La conclusión está clara: en estos momentos, garantizar el derecho al olvido cuando la información que se quiere 'olvidar' ha sido utilizada en el entrenamiento de un gran modelo de lenguaje, es una tarea muy difícil, probablemente imposible. 

Un motivo buen para revisar cómo se entrenan estos modelos y también un acicate para que, como ciudadanos individuales, seamos lo más cuidadosos y responsables posible con los datos que volcamos en la red.


lunes, 18 de octubre de 2021

Privacidad versus donación de datos, un equilibrio ético.

Cuando se habla de inteligencia artificial, especialmente cuando se habla de ética en inteligencia artificial, se suele poner mucho énfasis en el uso, especialmente en el mal uso, de los datos.

Se establece por un lado una íntima relación entre datos e inteligencia artificial, una relación que, en mi opinión, es algo equívoca, o más bien se transmite de una forma equívoca, cosa que desarrollaré en algún artículo futuro.

Pero sobre todo se pone el énfasis en las explotaciones inadecuadas de los datos, en la falta de respeto por la privacidad y en el riesgo para nuestra intimidad.


Los riesgos para la privacidad


Me gustaría poder decir lo contrario, pero lo cierto es que esos usos inadecuados de los datos son absolutamente reales, y los riesgos para nuestra privacidad muy ciertos y muy elevados. Entregamos, constantemente, datos a nuestros clientes y proveedores, datos a empresas con las que interactuamos siquiera de forma mínima, datos en encuestas telefónicas, datos en todo tipo de transacciones, datos a las apps de nuestros smartphones y datos en redes sociales.

Es cierto que, desde el nacimiento del GDPR esos datos se entregan normalmente con consentimiento explícito, pero todos sabemos que, aunque teóricamente el consentimiento es un mecanismo fuerte de protección, en la práctica, los leoninos y farragosos 'términos y condiciones' ligados a esa cesión de datos y nuestra propia comodidad y cultura de la gratuidad nos llevan a cederlos sin la más mínima consideración ni protección.

Y no son sólo los datos que entregamos de forma explícita, que ya son muchos, sino la información que se puede deducir, de manera indirecta, correlando datos y detectando patrones mediante aplicación de técnicas de machine learning, a partir de nuestra propia imagen en fotografías, a partir de lo que visitamos y hacemos 'Like' en redes sociales, a partir de lo que expresamos en esas redes, a partir de los sitios por los que nos movemos (conocido mediante nuestra geoposición), a partir del lugar donde vivimos, etc. Es impactante darse cuenta todo lo que se puede deducir sobre una persona, la precisión del perfilado que se puede llegar a hacer. Por poner un ejemplo, ayer mismo visualizaba una TED Talk  en que una investigadora del MIT, Rébecca Kleinberger decía por ejemplo que, a partir del sonido de la voz de una mujer, se puede deducir si está embarazada o no. ¡Sólo por el sonido de su voz!

Todo ese conocimiento que una empresa o un estado puede adquirir sobre nosotros se puede usar, se usa de hecho, para labores probablemente admisibles, aunque en algún caso molestas, como el perfeccionamiento de los algoritmos o la optimización de la acción comercial. Pero ese conocimiento profundo se puede usar también, por ejemplo, para la manipulación, sobre todo política, y no digamos ya nada para el ciberdelito. 

Todo ello es una llamada de atención, a nivel individual pero también a estados y administraciones para la toma de medidas, cosa que, afortunadamente, ya está en marcha, al menos, en la Unión Europea.


Uso ético y donación de datos


A pesar de lo que antecede, debo decir que siempre me he declarado tecno-optimista, y siempre he afirmado que la tecnología, en conjunto, es motor de progreso y bienestar social. Todavía recientemente lo afirmaba en la presentación de mi libro 'Robots en sombra' y también en la presentación de libro de mi amiga Valvanera Castro 'La aventura de innovar'.

Y con el uso de los datos soy de la misma opinión.

Son absolutamente ciertos, e incluso preocupantes, todos los malos usos de los datos que he mencionado anteriormente. Pero también son ciertos, y en el fondo mucho más abundantes, todos los usos positivos de los datos para la actividad económica e incluso para el bienestar social.

La recolección y análisis de los datos permite a cualquier empresa u organización, conocerse mejor a sí misma y a su mercado y tener una base más sólida para la toma de decisiones. Y eso es bueno para la empresa individual, claro, pero también para la economía en su conjunto y, por tanto, para el progreso de la sociedad.

La recolección y análisis de datos permite entrenar y optimizar tantos y tantos algoritmos de machine learning en campos como la visión artificial, el procesamiento del lenguaje natural o la predicción meteorológica, que luego usamos despreocupadamente como si la disponibilidad de esos algoritmos fuese algo sencillo o evidente. Y no lo es. Se necesita mucho ingenio, mucho trabajo... y muchos datos.

Por no decir nada de la importancia del uso de los datos en atención medica como el diagnóstico por imagen, en estudios epidemiológicos o, como hemos asistido recientemente de manera muy vívida, el desarrollo de vacunas.

Por eso necesitamos datos. Necesitamos cierta cesión consciente de datos.

 Un poco en esa línea van  Idoia Salazar y Richard Benjamins cuando en su último libro 'El algoritmo y yo' afirman


¡La donación de datos puede salvar vidas!


No es una idea nueva en estos autores. De hecho, en su libro anterior 'El mito del algoritmo' eran, quizá aún más expeditivos al afirmar:


No es ético no usar los datos para el bien social


frase que inspiró un artículo mío en este blog, 'Datos para el bien y la ética tecnológica positiva', un poco en la misma línea del que ahora escribo.

Son bonitas, y resaltan tanto la voluntariedad como el interés social, las palabras que emplean Idoia y Richard: donación de datos.


Conclusión: el equilibro ético


Y es que la ética no se puede hacer sólo en negativo, como prohibición y limitación, aunque a veces sí sea necesario actuar en esa línea. Y es que, los riesgos para la privacidad que el uso de datos pueden tener, que son ciertos, evidentes y graves, no pueden hacernos olvidar que igual que los datos se pueden usar para el mal, en mucha mayor medida esos datos se pueden utilizar para el bien, para el desarrollo económico, para el progreso, para la acción social y para el bienestar de la humanidad.

No caigamos en una hemiplejía ética contemplando sólo los riesgos. Hagamos un uso consciente de los datos, minimizando los riesgos de su mal uso pero promoviendo también, incluso más, su utilización para el progreso y para el bien.

 Donemos datos.


lunes, 23 de noviembre de 2020

Speech analytics, mucho más que lo que dices

Que nuestros datos están expuestos, lo sabemos. Nos puede preocupar más o menos, pero lo sabemos. Y que nuestra privacidad está amenazada, en el fondo también lo sabemos. Nos puede preocupar más o menos, pero también lo sabemos.

De todas formas, hay veces que esa amenaza se nos muestra de una forma más evidente, o quizá más sorprendente.

Y es que, en el fondo, inocentemente, pensamos que nuestros datos están expuestos de una forma tradicional, Que los datos que, debido a tramitaciones, compras o incluso indiscreciones volcamos en diferentes sistemas, pueden ser indebidamente utilizados o robados. Pero tendemos a pensar en datos que, de alguna forma, proporcionamos más o menos voluntariamente y de manera explícita.

De lo que quizá no somos tan conscientes es de la cantidad de información sobre nosotros mismos de la que dejamos rastro de forma inadvertida, sutil. Porque no son datos explícitos, no es una información que le hayamos proporcionado a una persona de manera clara. 

Son nuestros comportamientos, nuestras expresiones, nuestra forma de hablar, los textos informales que volcamos en redes sociales o en el móvil, nuestro buen o mal humor, nuestro estado de ánimo, nuestro tono de voz... Todo eso contiene información sobre nosotros mismos y, hoy en día, con el grado de avance del machine learning y la inteligencia artificial, es perfectamente viable realizar análisis concluyentes con base en esos datos tan aparentemente deslavazados, tan poco datos si se quiere.  

En su libro 'Intelligent Automation: Learn how to harness Artificial Intelligence to boost business & make our world more human'  Pascal Bornet, Ian Barkin y Jochen Wirtz, hay un momento en que se detienen a hablar de las plataformas UIM (Unstructured Information Management), es decir, soluciones que se especializan, precisamente en la gestión de información no estructurada, de esos rastros, aparentemente tan poco informativos y que, sin embargo, tanto dicen sobre nosotros. 

Además, los autores hablan de la combinación de estos sistemas con el análisis de sentimiento, una aplicación  ya muy avanzada de la inteligencia artificial y que complementa con una visión sobre actitudes, opiniones y sentimientos la información que aportan los IUM.

Combinando ambas piezas en un Contact Center tendríamos lo que denominan el Speech Analytics en que se puede obtener todo tipo de información a partir de las conversaciones grabadas que se producen con un centro de atención al cliente.

¿Se da cuenta el lector?

Uno llama a un centro de atención, quizá por una duda, probablemente por algún tipo de queja, y la conversación queda grabada y puede ser analizada no sólo desde el punto de vista de la denotación, lo que explícitamente se ha dicho, sino también de las actitudes y sentimientos que se derivan de la forma de expresarse o el tono de voz, por ejemplo.

Definitivamente, nuestros datos  están expuestos. Y no sólo los datos, casi, casi, nuestro estado de ánimo y hasta nuestra personalidad.

No sé si nos importa, pero conviene que lo tengamos en cuenta.

lunes, 22 de junio de 2020

Algoritmos y correlación de datos: la casi imposible privacidad


Uno de los evidentes, conocidos y ampliamente comentados riesgos del mundo digital, es la dificultad para defender la privacidad y la intimidad, para mantener al margen de la recolección, análisis y uso por parte de terceros, la información que nos concierne y que preferiríamos que no fuese conocida o, al menos, no de forma pública o no con fines comerciales, sociológicos o incluso políticos.


Los datos de carácter personal


Desde hace muchos años existe el concepto de datos de carácter personal, aquellos que más tienen que ver con nuestra identificación, con nuestras opciones en materia ideológica, religiosa, sexual etc o con nuestra situación de salud. Y desde hace muchos años existen leyes y reglamentos que protegen esos datos y que cuidan de que no se haga un mal uso de ellos.

Europa ha sido una adelantada en materia de protección de datos con el famoso GDPR, una reglamentación exigente en la línea de no permitir el uso de datos sin que la persona interesada haya dado su consentimiento explícito. 

Hay flancos, no obstante, muy difíciles de proteger incluso con esta reglamentación. Todos tenemos la experiencia de aceptar condiciones de uso sin haberlas leído. En general sabemos, o intuimos, que en esas condiciones de uso estamos admitiendo una explotación de nuestros datos seguramente por encima, o muy por encima, de lo que realmente nos gustaría que se produjese. Pero, aparte de lo engorroso que resulta la lectura del clausulado de las condiciones de uso, también sabemos que 'no pasar por el aro' de muchas de estas condiciones te deja bastante fuera del mundo digital actual, quedando al margen de algunas de las aplicaciones y servicios más populares.


La correlación


Pero hay un riesgo mucho menos conocido y que me parece de un aún mayor difícil control. Un riesgo que nace de la correlación de datos.

La correlación, dicho de forma muy sencilla, es el hecho de que dos o más fenómenos tiendan a producirse de una forma simultánea y/o evolucionar con cierto paralelismo.En algunas ocasiones, la correlación se produce por causalidad, porque un fenómeno es el causante de otro (por ejemplo, podemos pensar que calor y consumo de helados son fenómenos correlados porque el calor es la causa de que consumamos más helados para refrescarnos). Pero en otras ocasiones no existe una causalidad sino que ocurren a la vez por estar ambos causados por un tercer fenómeno o por interrelaciones complejas y a veces desconocidas pero que dan como resultado esa evolución paralela. 


Patrones de comportamiento


Por suerte o por desgracia, los seres humanos somos predecibles, mucho más predecibles de lo que pensamos y nos comportamos con arreglo a patrones bastante identificables. Existen patrones de comportamiento debidos no ya a factores constitutivos y evolutivos, sino también a efectos culturales, de educación o incluso de imitación o asimilación al grupo que hace que las personas de una misma edad, género, ideología, clase social, opción religiosa, etc, tendamos a comportarnos de formas similares.

La consecuencia que esto tiene es que, incluso sin proporcionar de forma explícita información sobre nosotros mismos, incluso sin aportar nuestra información de carácter personal, de alguna forma nuestros comportamientos 'nos delatan'. Existe correlación entre nuestras características y opciones personales y nuestros comportamientos.


Algoritmos y correlación


Y hoy en día, esos comportamientos dejan trazas, dejan información, abundante información,  en las redes sociales, en nuestros teléfonos móviles y en tantos y tantos registros de datos de los que podemos o no ser conscientes. Unos registros de datos no protegidos o sólo débilmente protegidos porque son públicos y porque no recogen información personal o al menos no información que la persona no haya aportado voluntariamente.

Y como esos comportamientos correlan con nuestra naturaleza, nuestro estado, nuestras opciones, nuestra ideología, es posible, a través de los potentes algoritmos actuales, obtener información muy precisa sobre cada uno de nosotros. Uno de los aspectos en que más destaca el machine learning es, precisamente, el reconocimiento de patrones. No en vano, mucho antes de que se acuñase el término 'machine learning', ya se hablaba e investigaba en 'pattern matching' de donde provienen muchos e los algoritmos actuales del machine learning. 


La casi imposible privacidad


Y si nuestro comportamiento está sujeto a patrones que delatan nuestras opciones personales. Y si esos comportamientos dejan trazas en forma de datos y si existen algoritmos capaces de detectar esos patrones, la protección explícita de nuestros datos personales, incluso aunque fuese efectiva, puede estar dejando un flanco muy débil.

Y no es un flanco, creo, nada fácil de proteger, Estamos en la obligación de buscar fórmulas técnicas, éticas y legales para conseguir esa protección. Pero me temo que esas fórmulas, en todo caso, protegerían de un mal uso por parte de ciudadanos, empresas y administraciones con intereses, digamos, normales. Intereses que pueden ser comerciales o incluso de curiosidad, pero siempre dentro del margen de una cierta honestidad y arreglo a la ley. ¿Pero cómo protegernos frente a 'los malos', a los realmente 'malos'? ¿Cómo poner barreras ante gobiernos autoritarios, ante terroristas o ante el crimen organizado? En esos casos, ni la ley ni, por supuesto, la ética, constituyen barreras eficaces. Y técnicamente, tampoco veo ahora mismo un medio de protección fiable.

¿Qué hacemos?

lunes, 25 de diciembre de 2017

#macrotweet: una advertencia sobre programas de fidelización

When I sign up for your loyalty program, I am explicitly asking you to track my shopping behavior in order to earn rewards.

David L. Rogers
'The digital transformation playbook'


lunes, 5 de agosto de 2013

¿Qué sabe Facebook de ti?


La privacidad es uno de los puntos de preocupación en lo que toca al empleo masivo de redes sociales y en general a la presencia en Internet y en el mundo 2.0.

Nos preocupan los datos que aportamos a las redes y el uso que éstas hacen de ellos. Facebook ha tenido de hecho más de un problema en lo relativo a sus políticas de privacidad y su transparencia respecto a este tema.

Sin embargo, y según nos advierte Jaron Lanier en su último libro 'Who owns the future?' la huella digital que dejamos va mucho más allá de los datos o elemenos multimedia que voluntariamente, y con más o menos cuidado, aportamos, mucho más allá de aquello de lo que las diferentes políticas de privacidad nos pueden advertir.

Esta es su advertencia:
The most precious and protected data, given the way we are doing things these days, are statistical correlations that are used by algorithms but are rarely seen and understood by people.

Según esto, la correlación de datos, la información sobre comportamiento y, en general, todo un conjunto de datos que no aportamos de forma directa y consciente, pero que pueden ser deducidos, forman parte de un rico y valioso arsenal de información sobre nosotros mismos que se encuentra en 'la red' y del que no somos muy conscientes.

Hablando de Facebook, así es como Lanier nos advierte de ese nuestro inconsciente comportamiento y del beneficio económico que de esa inconsciencia se puede obtener:
There are two versions of you on Facebook: the one you obsessively tend, and the hidden, deepest secret in the world, which is the data about you that is used to sell access to you to third parties.

Inquieta pensar sobre esa falta de privacidad y, más aún, nuestro desconocimiento sobre la información que sobre nosotros mismos se encuentra en la red.

¿Cómo actuar?

La respuesta no es en absoluto evidente.

Quiséramos pensar que una acertada legislación internacional podría eliminar estos riesgos...pero la experiencia no invita al optimismo.

¿Qué hacer entonces? ¿No participar en Internet y el mundo 2.0?

Puede ser peor el remedio que la enfermedad...aparte de que, incluso aunque no los aportemos nosotros mismos, en la red existe rastros de nosotros procedentes de webs oficiales, publicaciones o simplemente referencias a nosotros mismos vertidas por amigos o familiares.

No soy capaz de pensar una solución del todo convincente.

Como no me parece en absoluto aconsejable ni efectivo el desaparecer de la red, lo único que se me ocurre es seguir siendo muy consciente de la información que se aporta, en lo que podamos controlar, y exhibir un comportamiento ejemplar en la red de forma que nada que de nosotros se pueda deducir o conocer nos pueda llegara incomodar o perjudicar excesivamente caso de ser utilizado sin nuestro consentimiento.

No es muy sólido...pero no sé qué más se puede hacer.

¿Ideas?

miércoles, 5 de diciembre de 2012

Personalidad implícita en la red

Una de las preocupaciones más frecuentes respecto al uso de Internet y los medios sociales es todo lo que tiene que ver con la privacidad y la seguridad.

Siendo ciertos ambos, con frecuencia tengo la sensación de que se magnifican un tanto ambos y no porque técnicamente no existan ambas problemáticas, que existen, sino porque quizá se les da una dimensión relativa superior al impacto real lo que tiende a demonizar Internet.

Cuando se reflexiona de forma simplista sobre los posibles problemas de privacidad, podemos pensar que éstos pueden eliminarse o minimizarse simplemente evitando el proporcionar datos explícitos sobre nosotros mismos tales como nuestro teléfono, nuestro DNI, nuestra dirección postal, etc. 

Es cierto que no proporcionar esos datos añade algún nivel de privacidad...sin embargo, probablemente muchísimo menor del que pensamos.

Con los pocos datos disponibles, pero cruzando la información que sobre nosotros puede existir en tantos y tantos lugares de la red, es posible llegar a unir mucha información sobre una persona.

Pero el punto más interesante, quizá el más preocupante, no es tanto el que tiene que ver con nuestra información explícita sino en todo lo que revelan, de forma implícita, nuestros usos de la red...que también quedan registrados y sobre cuya información poco control tenemos.

Nuestros usos, los grupos a que nos podemos unir en una red social, las compras que podemos realizar online, las páginas que visitamos, etc, permiten elaborar un perfil sobre nuestra personalidad, ideología, opiniones, gustos, inclinaciones...

Usado desde un punto de vista comercial y positivo, eso puede permitir ofrecer las ofertas que mejor se adaptan a nuestros gustos o personalizar nuestra experiencia de uso de la red.

Manejada esa información, sin embargo, con otro tipo de fines no tan bienintencionados... la cosa puede llegar a producir miedo.

En su libro 'The net delusion', Evgeny Morozov hace mención a este asunto, que me he tomado la libertad de bautizar como 'personalidad implícita', haciendo referencia a los estudios de Sherri Grasmuk o de Colding-Jorgensen y nos dice:

Facebook users shape their online identities in implicit rather than explicit ways. That is, they believe that the kinds of Facebook campaigns and groups they join reveal more about them  than whatever they put on the dull 'about me' pages.

Las formas más insidiosas e inmanejables de problemas de privacidad podrían venir de esta personalidad que implícitamente revelamos y no tanto de la información explícita que desvelamos.

Quiero pensar que su impacto real, en términos relativos, es menor del que se puede pensar y eso permite mayoritariamente un uso sano, creativo y productivo de la red.

Pero el peligro esta ahí...

viernes, 7 de septiembre de 2012

García Márquez y la privacidad en Internet

Uno de los miedos que atenazan a los más resistentes a los nuevos medios en Internet es el de la privacidad y la seguridad de la información.

Puede existir un cierto grado de exageración, inadaptación o incluso tecnofobia...pero a priori parecen unos temores legítimos.

A la hora de entender los niveles de información, o quizá mejor, de visibilidad que se manejan en Internet, Dolors Reig, en su libro 'Socionomía', acude a un pensamiento de Gabriel García Márquez según el cual todos tenemos tres vidas: la pública, la privada y la secreta.

Hermosa forma de expresarlo...como no podía ser menos a tenor de la procedencia.

Con base en estos tres tipos de vida, podemos asumir que el comportamiento razonable en Internet, especialmente en medios sociales, podría ser:
  • Vida pública: Se puede publicar casi con total apertura.

  • Vida privada: debe ponerse un cierto cuidado, y aplicar criterios de restricción de ámbito, de permisos de lectura, de grupos, etc

  • Vide secreta: no debe publicarse nada de ella bajo ningún concepto.
Razona sin embargo Dolors Reig que, aunque, en efecto, lo secreto no debe publicarse, la distinción entre lo público y lo privado es cada vez más borrosa, como también lo es entre lo privado y lo profesional.

Y esta cierta indistinción se produce en parte por las dificultades técnicas en lo relativo a seguridad y privacidad, pero también debido a un cambio cultural, a una tendencia a mostrarnos en público y en los ámbitos profesionales con una cara más humana, más espontánea y con unas posibles contraprestaciones emocionales a esa cierta pérdida de privacidad.

Dolors Reig, incluso, afirma:

Vivimos en público

Debemos guardarnos bien lo secreto, si queremos que siga siendo tal y esto no es en realidad diferente del mundo analógico.

Pero lo diferencial, lo importante, es saber que quizá conviene irse a costumbrando a esa vida en público, a esa cierta mezcla de lo público y privado. Acostumbrarse, gestionarlo y centrarse en las ventajas de esta nueva situación.

jueves, 17 de junio de 2010

El reverso tenebroso de Internet (IV). La revolución del control

La cuarta advertencia, el cuarto jarro de agua fría que sufrimos a manos de Nicholas Carr, va más allá de Internet y afecta, en realidad, a las tecnologías de la información en su conjunto. Algo tiene que ver, además, con el fin del anonimato de que hablamos unos artículos más atrás.

Según Carr, la revolución industrial fue la revolución de la materia y la energia. Y en su vertiginoso avance, desbordó la capacidad de empresarios e incluso militares, de obtener toda la información necesaria para controlar esa efervescencia productiva.

Carr menciona alguna tecnología (el código Morse) y alguna iniciativa (la burocracia) que vinieron a proporcionar apoyo en la labor de obtención de información y en el control.

Fueron, sin embargo, las tecnologías de la información las que ayudaron definitivamente a domar a esa fiera. Así nos lo dice Carr:

"No debería sorprendernos, pues, que la mayoría de los avances en informática y conexiones ... hayan sido propiciados, no ya por el deseo de liberar a las masas, sino por la necesidad de los burócratas comerciales y gubernamentales, a menudo asociados a operaciones militares y defensa nacional, de obtener un control mayor."

Y remacha con una cita de James Beniger, autor del término (y el libro) revolución del control:

"Las tecnologías de microprocesadores y ordenadores [son] sólo la última aportación del desarrollo continuo de la Revolución del Control"".

Es difícil no reconocer el hecho. La propia Internet, el mundo cibernético de la libertad aparente, nació de una iniciativa militar y de un gobierno, el norteamericano.

Las posibilidades para el control de las tecnologías de la información son inmensas, su utilidad altísima, su interés enorme. Y seguramente hay que ver estas capacidades como un hecho positivo. Nos han ayudado a perfeccionar nuestros procesos, nuestros productos y servicios, muestro aprendizaje... Sin embargo, también es preciso reconocer que esa capacidad de control, unida a la desaparición del anonimato, hace tambalear un tanto esa imagen idílica de reino de la libertad que rodea a la red como una aureola.

viernes, 11 de junio de 2010

El reverso tenebroso de Internet (I). El fin del anonimato

Nos hemos acostumbrado a ver en Internet un fenómeno extraordinario. Nos hemos acostumbrado a percibir y valorar su capacidad para interconectar a las personas, para acelerar la comunicación, para fomentar redes sociales y la colaboración entre personas distantes.

Nos hemos acostumbrado a asignarle un empuje democratizador al facilitar enormemente la expresión de las opiniones de las personas, la difusión de la información, el debate, la igualdad en el acceso a datos y la posibilidad de trabajos en lugares remotos.

Nos hemos acostumbrado a ver la Red como un aplanador y como un habilitador de la economía de la larga cola, una economía que permite competir a pequeñas empresas o incluso particulares y alcanzar un mercado interesante en competencia incluso con los más grandes.

Quizá nos hemos creído un cuento de hadas, o, más probable, nos hemos acostumbrado a una perspectiva hemipléjica de Internet y la Web 2.0.

Nicholas Carr, el controvertido Nicholas Carr, viene a despertarnos de ese sueño, a mostrarnos el reverso tenebroso de Internet.

En su libro 'El gran interruptor', tras dar un repaso a la evolución y paralelismnos de las industria de la electricidad y la de las Tecnologías de la Información y, en especial, Internet, cuando nos ha dejado fascinados con su perspicacia y el curioso y brillante futuro que parece aguardar a estas tecnologías, nos vuelca un tremendo jarro de agua fría dedicando una extensión importante de la segunda parte de su libro a analizar algunos de los efectos negativos, peligrosos o sorprendentes de Internet, su particular reverso tenebroso.

Para empezar el cambio de ritmo nos dice:

"Internet ha contenido siempre grandes contradicciones, tanto en la forma en que funciona como por la forma en que la gente la usa y la percibe. Es un elemento de control burocrático y de liberación personal, un conducto de ideales comunitarios y de beneficios corporativos. Estas y otras tensiones técnicas, económicas y sociales son cada vez más grandes"

Ya nos ponemos en guardia.

El primero de los puntos de dicho reverso tenebroso ya está esbozado en la frase anterior: el registro de nuestras acciones, el control, el fin del anonimato.

Más adelante lo expresa con mucha mayor claridad y contundencia:

"... muchos de nosotros damos por sentado el anonimato cuando salimos de compras o de negocios por la red... A través de los sitios que visitamos y de las búsquedas que efectuamos revelamos detalles sobre nuestro trabajo, aficiones, familia, política y salud, pero también nuestros secretos, fantasías, obsesiones, pecaditos e incluso, en el más extremo de los casos, delitos. Pero nuestra sensación de anonimato es una completa ilusión. La información detallada sobre todo lo que hacemos online se recoge, se almacena en bases de datos gubernamentales o corporativas, y se conecta con nuestras identidades reales, ya sea explícitamente a través de nuestros nombres de usuario, el número de nuestras tarjetas de crédito y las direcciones IP que se asignan automáticamente a nuestros ordenadores o directamente a través de nuestro historial de búsqueda y navegación."

En el fondo, ya lo sabíamos.

Todo aquel acostumbrado al mundo de Internet sabe que la sensación de anonimato tiene un puntito de ilusoria, que dejamos un rastro de nuestras acciones, que no actuamos completamente en la sombra.

Pero es tan fuerte la forma en que lo expresa Nicholas Carr, lo apoya en ejemplos tan terribles, hace tan patente esa falta de anonimato y nos anticipa usos tan preocupantes de esa información que al menos por unos momentos socava nuestra ilusión y confianza en internet, al menos por unos instantes consigue preocuparnos, al menos por unos instantes consigue que este presente y este futuro, esta disponibilidad de nuestra información personal en la red, esa absoluta falta de anonimato resulte, cuando menos, y como decíamos en uno de los primeros artículos de este blog, simplemente, inquietante.