Se establece por un lado una íntima relación entre datos e inteligencia artificial, una relación que, en mi opinión, es algo equívoca, o más bien se transmite de una forma equívoca, cosa que desarrollaré en algún artículo futuro.
Pero sobre todo se pone el énfasis en las explotaciones inadecuadas de los datos, en la falta de respeto por la privacidad y en el riesgo para nuestra intimidad.
Los riesgos para la privacidad
Me gustaría poder decir lo contrario, pero lo cierto es que esos usos inadecuados de los datos son absolutamente reales, y los riesgos para nuestra privacidad muy ciertos y muy elevados. Entregamos, constantemente, datos a nuestros clientes y proveedores, datos a empresas con las que interactuamos siquiera de forma mínima, datos en encuestas telefónicas, datos en todo tipo de transacciones, datos a las apps de nuestros smartphones y datos en redes sociales.
Es cierto que, desde el nacimiento del GDPR esos datos se entregan normalmente con consentimiento explícito, pero todos sabemos que, aunque teóricamente el consentimiento es un mecanismo fuerte de protección, en la práctica, los leoninos y farragosos 'términos y condiciones' ligados a esa cesión de datos y nuestra propia comodidad y cultura de la gratuidad nos llevan a cederlos sin la más mínima consideración ni protección.
Y no son sólo los datos que entregamos de forma explícita, que ya son muchos, sino la información que se puede deducir, de manera indirecta, correlando datos y detectando patrones mediante aplicación de técnicas de machine learning, a partir de nuestra propia imagen en fotografías, a partir de lo que visitamos y hacemos 'Like' en redes sociales, a partir de lo que expresamos en esas redes, a partir de los sitios por los que nos movemos (conocido mediante nuestra geoposición), a partir del lugar donde vivimos, etc. Es impactante darse cuenta todo lo que se puede deducir sobre una persona, la precisión del perfilado que se puede llegar a hacer. Por poner un ejemplo, ayer mismo visualizaba una TED Talk en que una investigadora del MIT, Rébecca Kleinberger decía por ejemplo que, a partir del sonido de la voz de una mujer, se puede deducir si está embarazada o no. ¡Sólo por el sonido de su voz!
Todo ese conocimiento que una empresa o un estado puede adquirir sobre nosotros se puede usar, se usa de hecho, para labores probablemente admisibles, aunque en algún caso molestas, como el perfeccionamiento de los algoritmos o la optimización de la acción comercial. Pero ese conocimiento profundo se puede usar también, por ejemplo, para la manipulación, sobre todo política, y no digamos ya nada para el ciberdelito.
Todo ello es una llamada de atención, a nivel individual pero también a estados y administraciones para la toma de medidas, cosa que, afortunadamente, ya está en marcha, al menos, en la Unión Europea.
Uso ético y donación de datos
A pesar de lo que antecede, debo decir que siempre me he declarado tecno-optimista, y siempre he afirmado que la tecnología, en conjunto, es motor de progreso y bienestar social. Todavía recientemente lo afirmaba en la presentación de mi libro 'Robots en sombra' y también en la presentación de libro de mi amiga Valvanera Castro 'La aventura de innovar'.
Y con el uso de los datos soy de la misma opinión.
Son absolutamente ciertos, e incluso preocupantes, todos los malos usos de los datos que he mencionado anteriormente. Pero también son ciertos, y en el fondo mucho más abundantes, todos los usos positivos de los datos para la actividad económica e incluso para el bienestar social.
La recolección y análisis de los datos permite a cualquier empresa u organización, conocerse mejor a sí misma y a su mercado y tener una base más sólida para la toma de decisiones. Y eso es bueno para la empresa individual, claro, pero también para la economía en su conjunto y, por tanto, para el progreso de la sociedad.
La recolección y análisis de datos permite entrenar y optimizar tantos y tantos algoritmos de machine learning en campos como la visión artificial, el procesamiento del lenguaje natural o la predicción meteorológica, que luego usamos despreocupadamente como si la disponibilidad de esos algoritmos fuese algo sencillo o evidente. Y no lo es. Se necesita mucho ingenio, mucho trabajo... y muchos datos.
Por no decir nada de la importancia del uso de los datos en atención medica como el diagnóstico por imagen, en estudios epidemiológicos o, como hemos asistido recientemente de manera muy vívida, el desarrollo de vacunas.
Por eso necesitamos datos. Necesitamos cierta cesión consciente de datos.
Un poco en esa línea van Idoia Salazar y Richard Benjamins cuando en su último libro 'El algoritmo y yo' afirman
¡La donación de datos puede salvar vidas!
No es una idea nueva en estos autores. De hecho, en su libro anterior 'El mito del algoritmo' eran, quizá aún más expeditivos al afirmar:
No es ético no usar los datos para el bien social
frase que inspiró un artículo mío en este blog, 'Datos para el bien y la ética tecnológica positiva', un poco en la misma línea del que ahora escribo.
Son bonitas, y resaltan tanto la voluntariedad como el interés social, las palabras que emplean Idoia y Richard: donación de datos.
Conclusión: el equilibro ético
Y es que la ética no se puede hacer sólo en negativo, como prohibición y limitación, aunque a veces sí sea necesario actuar en esa línea. Y es que, los riesgos para la privacidad que el uso de datos pueden tener, que son ciertos, evidentes y graves, no pueden hacernos olvidar que igual que los datos se pueden usar para el mal, en mucha mayor medida esos datos se pueden utilizar para el bien, para el desarrollo económico, para el progreso, para la acción social y para el bienestar de la humanidad.
No caigamos en una hemiplejía ética contemplando sólo los riesgos. Hagamos un uso consciente de los datos, minimizando los riesgos de su mal uso pero promoviendo también, incluso más, su utilización para el progreso y para el bien.
Donemos datos.
No hay comentarios:
Publicar un comentario