Blog

privacidad

Privacidad y seguridad en el universo digital

(Este artículo forma parte de la serie sobre protección de datos y TICs, “Tecnologías y privacidad de datos: ¿el precio a pagar por la digitalización?”)

Un dicho común entre los usuarios de Internet es «si no está pagando por el producto, usted es el producto». Se trata de un fenómeno denominado «pay per privacy» donde en realidad el pago del servicio lo constituye la cesión de los datos personales del usuario del mismo. Esto significa que para las empresas que ofrecen servicios gratuitos, como las plataformas de redes sociales donde pasamos la mayor parte del tiempo de conexión a internet o las que ofrecen app gratuitas, la información personal es muy valiosa. Los datos son el nuevo petróleo (Data is the new oil)

Los datos  ̶ pero sobre todo su registro y tratamiento ̶  son, efectivamente, la nueva gasolina de éste gran motor del desarrollo que es la digitalización. Y Blockchain  ̶ la última tecnología en incorporarse ̶  podría convertirse, como señala PASTOR SEMPERE, C., en “la máquina de vapor” de la nueva revolución industrial[3]. Y ello por cuanto esta tecnología de registro descentralizado nace, crece y se reproduce con ocasión del registro de los datos que se corresponden a las monedas virtuales o criptodivisas   ̶ descentralizándose el registro de esos activos con valor ̶  que, a través de la tecnología Blockchain, son objeto de transacción libre y anónima entre los usuarios de la cadena.

La ingente cantidad de datos que ahora manejamos, junto a la aparición de internet allá por los años noventa, nos ha conducido a la explosión de éste fenómeno de la digitalización cuyo primer exponente o al menos el de mayor relevancia en lo que a privacidad concierne es el Big Data que incluye precisamente el término «datos» en su propia denominación.

Siguiendo el análisis de GIL GONZÁLEZ, E., puede señalarse que el término Big Data se refiere a las gigantescas cantidades de información digital  ̶ en el año 2000 solo un cuarto de la información mundial estaba almacenada en formato digital mientras que hoy más del 98% de toda la información existente es digital ̶  controlada por autoridades, compañías y otras organizaciones sujetas a un análisis exhaustivo basado en el uso de algoritmos que permiten obtener información a partir de las bases de datos estructuradas así como de los datos no estructurados (datos no-texto, como fotografías, audio) transformando toda esta información de la realidad en nuevas formas de valor, con herramientas como el denominado machine learning[4] gracias al cual se es capaz de descubrir y mantener correlaciones antes imposibles –modificando y ajustándose los datos obtenidos una y otra vez por el propio sistema en un bucle continúo donde “la máquina” va aprendiendo por sí sola a buscar nuevos modelos y patrones–. Estas técnicas que soportan el análisis de todos nuestros datos son usadas para crear nuevas formas de valor que se traducen en nuevos productos y servicios por compañías como Amazon, Google o  Facebook.

Los beneficiarios del Big data son, como hemos visto, empresas que optimizan su estudio de la demanda, gobiernos que pueden predecir huracanes u optimizar el tráfico y la gestión de las propias ciudades smart cities[5], pero también los ciudadanos que obtenemos mejores diagnósticos médicos, ahorros de tiempo y costes en toda clase de bienes y servicios o, por último, desde un punto de vista más social, la posibilidad de encontrar amistades e incluso pareja a través de las propias redes sociales matching social[6].

Como es habitual, el desarrollo de estas tecnologías se produce con ocasión de la evolución de la propia economía de mercado en la que las empresas deben competir con sus mejores armas para lograr clientes para sus productos o servicios. Y ciertamente, en una época de mercados saturados denominados «océanos rojos»[7] donde averiguar los deseos y necesidades de los consumidores y, además, hacerlo el primero, se torna en factor clave de éxito, obtener esta información sobre aquellos resulta crucial. El marketing (investigación de mercados), exige usar todos los medios posibles para obtener ésta información relevante y fiable acerca de qué clase de bienes o servicios estaríamos dispuestos a pagar. Y en esa búsqueda hemos viajado desde el «focus group»[8] y la prueba gratuita de producto, pasando por el neuromarketing y el análisis de emociones en tiempo real del consumidor, a las más sofisticadas técnicas de análisis de conductas y comportamientos como «google analytics»[9], un proceso que posibilita el Big data y que da un paso más allá en éste análisis de los consumidores dando respuesta a ésta necesidad de las empresas como ninguna otra en toda nuestra historia. Y de ahí que los datos acerca de nuestras preferencias y gustos –buyer persona[10]— sean, como anticipábamos, el nuevo petróleo. Empero mientras que en la búsqueda de esos potenciales compradores con aquellas herramientas tradicionales que hemos señalado –focus group, prueba gratis, neuromarketing– la privacidad estaba asegurada al obtener los datos directamente de las personas interesadas ahora, con las redes sociales, miles de aparatos interconectados y máquinas que aprenden por sí solas, la privacidad se pone en claro entredicho tanto a la hora del tratamiento masivo de los datos que se ceden voluntariamente, cuanto con la insuficiencia de las propias técnicas de anonimización para preservar la posible re identificación de los titulares de los mismos por un tercero.

Por otra parte, los estudios han demostrado que las personas actúan de manera diferente cuando saben que están siendo observadas. Básicamente, puede afirmarse que la privacidad permite a una persona actuar de una manera inspirada, íntima o tonta, sin miedo o inhibición alguna. Del mismo modo que las personas cierran las puertas de manera intuitiva, desean privacidad en sus interacciones con la tecnología. La privacidad personal es intrínsecamente valiosa: permite que las personas sean ellas mismas y actúen de manera desinhibida mostrando esos deseos y necesidades que las empresas quieren satisfacer con productos y servicios. En consecuencia, las organizaciones inteligentes harán esfuerzos para no violar las expectativas de privacidad personal de los individuos[11].

Efectivamente, como casi toda revolución tecnológica, la digitalización tiene un reverso, una cara menos amable, que la hace igualmente susceptible de usos inadecuados como ocurre en internet con la denominada «Deep web»[12] o las deficiencias del propio sistema que también las encontramos aquí. En concreto, en el Big Data existe el riesgo en cuanto a la posibilidad de caer en conclusiones erróneas a la hora de diseñar modelos  ̶ los algoritmos discriminan en la medida que los datos que manejan llevan incluidas estas discriminaciones que existen en la realidad y, por ello, las confirman en sus conclusiones ̶ , también con ocasión de la toma de decisiones automatizadas sin intervención humana al aplicar un modelo extraído de lo anterior  ̶ sin corregir los sesgos ̶ y, finalmente, el riesgo de menoscabo de la privacidad y la protección de nuestros datos personales de muy diversas formas como veremos más adelante.

Centrándonos pues en lo que es objeto de éste capítulo, vamos a determinar cómo afectan estas tecnologías a los datos personales en aras a su efectiva protección y salvaguarda para posteriormente poder vislumbrar las eventuales bondades del «Blockchain», la última tecnología de esta nueva era digital en orden a solucionar estas  cuestiones planteadas por el big data y resto de tecnologías precedentes y de la que ya habrá tenido ocasión el lector de descubrir en el presente libro.

Como señala GIL GONZÁLEZ, E., la digitalización puede representar un reto para diferentes cuerpos nor­mativos, tales como la prohibición de la discri­minación, la responsabilidad civil, el derecho de la competencia, los derechos de propiedad intelectual empero a los efectos de nuestra exposición vamos a considerar la amenaza de la normativa de protección de datos por el big data, el Internet de las cosas o la Inteligencia Artificial, todo ello conforme a las consideraciones que la misma hace en dicha publicación.

De su acertado análisis se desprenden algunas vulnerabilidades que la nueva normativa ha tratado de solventar, como la contradicción del principio de minimización[13] con la esencia del propio big data, la excesiva confianza en el consentimiento informado como base legitimadora del tratamiento, las probadas limitaciones de las técnicas de anonimización de datos frente a las de re identificación o, por último, junto a la cuestionable fiabilidad de las propias decisiones sobre personas tomadas de forma automática que permiten éstas nuevas tecnologías de la información, existe el riesgo de que se haga sin intervención alguna de estas personas.

Puesto que ya se habrá intuido que el principio de minimización en el tratamiento de nuestros datos no encaja bien con la propia esencia y potencialidad del big data  ̶ como generador de nuevas e importantes formas de valor ̶  y dada la brevedad que requiere este trabajo, analizaremos sucintamente estas cuestiones a la luz de la nueva normativa europea. No sin antes explicar, de la mano de dicha autora,  las dos fases que componen el big data.

Así es, siguiendo a GIL GONZÁLEZ, E. la primera fase del Big Data implica una recolección de datos y su procesamiento automatizado para crear un modelo que nos muestre las correlaciones existentes entre las distintas variables objeto de análisis o estudio y aunque es importante que los datos de cada persona puedan asociarse como pertenecientes a la misma persona, esto no implica que podamos saber quién es esa persona, lo que se consigue con técnicas de anonimización o disociación de datos (algoritmos para saber que pertenecen a la misma persona pero sin saber a quién). Tradicionalmente estos aprovechamientos se asientan en la tolerancia del titular y el riesgo es muy marginal. Además, siempre puede manifestarse por el sujeto su voluntad de no ceder sus datos para esto. La segunda fase consiste en aplicar el modelo a una persona deter­minada. Así, los datos de una persona serán recogidos y procesados para que, de acuerdo con el modelo que creado, se puedan ob­tener conclusiones sobre ella. En este momento es necesario obtener el consentimiento informado de la persona. Aquí los riesgos son evidentes y potencialmente graves toda vez que pueden tomarse decisiones relevantes para el sujeto sobre la base de la aplicación de estos modelos: diagnóstico médico, crediticio, académico, etc.,

Éste es el auténtico caballo de batalla en relación al big data y la privacidad: la toma de decisiones automáticas en función de estos modelos toda vez que el derecho a oponerse a este tratamiento solamente puede ejercitarse cuando las per­sonas son conscientes de que las decisiones que les afectan se toman de dicha manera automatizada. Pero como ya hemos mencionado, resulta que los pro­cesos analíticos de datos masivos de donde surgen los propios modelos  ̶ fase 1 del big data ̶ muchas veces ocurren sin conocimiento de los sujetos o de forma poco transparente. El problema vendría, pues del hecho de que los individuos en muchas ocasiones no son conscientes de que se están tomando decisiones que les afectan  ̶ fase 2 del big data ̶  con base en esos procesos automatizados, aplicándoles los modelos a su caso concreto[14].

Por ello, el artículo 22 del Reglamento europeo de protección de datos (GDPR, en adelante) intenta asegurar la prohibición de estos tratamientos basados en la aplicación de estos modelos, con excepciones, entre las que destaca el consentimiento expreso del interesado[15].

Veamos pues más en detalle estas consecuencias del big data y las tecnologías del universo virtual sobre la privacidad y los datos personales, en concreto sobre las dos piedras angulares de la privacidad: el consentimiento y la anonimización.

El consentimiento

Así, por ejemplo, por lo que se refiere a esa virtualidad legitimadora que se predica respecto del consentimiento inequívoco del titular de los datos personales como presupuesto esencial de la licitud de su tratamiento, deben señalarse, no obstante algunas limitaciones que se derivan de lo siguiente:

– La existencia de prácticas irregulares a la hora de obtener el consentimiento tales como las que con carácter de «precio oculto» se suelen dar en los juegos en línea o los parámetros por defecto de muchas aplicaciones que ponen en entredicho la libertad o voluntariedad del consentimiento prestado, todo lo cual ya anticipaba el Dictamen del Supervisor Europeo de Protección de datos, de 14 de enero de 2011,  «no siempre es fácil determinar qué constituye un consenti­miento verdadero e inequívoco. Determinados responsables del tratamiento de datos explotan esta incertidumbre recurriendo a métodos que excluyen toda posibilidad de dar un consenti­miento verdadero e inequívoco»[16]

– La existencia de efectos no deseados que se producen a raíz de la aplicación de las técnicas del propio big data, como la paradoja de la transparencia[17]  –a mayor sencillez y claridad de la información menor precisión sobre lo que se está consintiendo–, o la tiranía de la minoría[18] –la información que comparten voluntariamente unos pocos individuos puede revelar la misma cantidad de información sobre aquellos que deciden no otorgar su consentimiento— llegándose a la conclusión de que es posible desprender determinados atributos de toda la población con el hecho de que únicamente un 20% de esta población revele dichos atributos. En este sentido es paradigmático el «caso target» y la capacidad de predecir embarazos. La cadena de grandes almacenes Target llevó a cabo un es­tudio a través del cual podía predecir la tasa de embarazos de sus clientas. En este caso, no se realizaron deducciones sobre la base de los amigos en redes sociales. Target analizó los datos de sus ficheros sobre mujeres que habían celebrado un baby shower  ̶ fiesta celebración embarazo muy común en estados unidos ̶  para identificar a las mujeres que habían revelado el hecho de que estaban embarazadas, y estudió su cesta de la compra. Puesto que estos hábitos eran diferentes de los de otros clientes, Target pudo averiguar qué clientas podrían estar em­barazadas sobre la base del cambio en sus hábitos de consumo y la información revelada por aquellas otras mujeres con las que no tenían ningún tipo de vínculo.

– Y, finalmente, la propia esencia del big data que implica la obtención de información oculta y correlaciones que a priori ni siquiera el responsable del tratamiento puede aventurar y que se va a obtener a raíz de los análisis de los datos cuyo consentimiento ha obtenido de sus titulares para un determinado fin.

La conclusión no se debe hacer esperar. Los medios a través de los cuales se obtiene el consentimiento en esta nueva era digital hacen que éste no sea el mejor modo de proteger la privacidad y, además, como hemos visto, ni siquiera es relevante a la hora de apreciar determinados atributos a personas cuyos datos personales no han sido ni siquiera recogidos ni tratados.[19] Por lo tanto, como GIL GONZALEZ, E., indica, la privacidad es, con carácter general, un ejercicio vacío habida cuenta que nadie lee las políticas y aquellos que las leen, no las entienden.

En este sentido, parecería que el ordinal segundo del artículo 7º del Reglamento europeo que obliga a las empresas y organizaciones a que la solicitud de consentimiento se presente de tal forma que se distinga claramente de los demás asuntos, de forma inteligible, de fácil acceso y utilizando un lenguaje claro y sencillo trataría de responder a éstas críticas. Empero como anunciaba S. RUBINSTEIN, I. el consentimiento informado está roto, sin posibilidad de que una norma lo repa­re, y el único modo de fortalecerlo es cambiando los mercados relevantes de información.[20]

Por nuestra parte, tras todo lo visto hasta ahora, entendemos –con estas dos autoras– que no podemos sostener por más tiempo la idea de que el consentimiento informado es una piedra angular de la protección de la privacidad. Veamos, a continuación si, con   la anonimización podemos proteger mejor este importante aspecto de la nueva realidad digital en la que ya estamos inmersos: nuestra privacidad.

La anonimización

Abordamos ahora la otra cuestión a la que se hacía referencia al principio de éste capítulo acerca de qué datos de las personas pueden tratarse sin necesidad de protección alguna  ̶ al estar disociados de su titular por medio de las llamadas técnicas de anonimización ̶  y, por tanto, no afectar a la privacidad de los interesados. Todo ello sobre la base de poder afirmar, tras aplicar éstas técnicas, la imposibilidad de identificar al titular de los datos que han sido disociados expresamente a tales fines.

Desafortunadamente, los solventes resultados de los estudios llevados a cabo en relación con la fiabilidad de dichas técnicas de disociación o anonimización –caso AOL y otros ̶ han puesto en jaque la esencia misma de ésta institución.[21] Tras estas evidencias, se impone el criterio de negar la existencia de «riesgo cero» de re identificación cuando se aplican estás técnicas. Criterio éste fuertemente consolidado –Canadá, EE.UU. y UE— y que nos obliga a hablar ahora de «pseudonimización» en lugar de anonimización, junto a otros conceptos como nivel aceptable de riesgo o utilidad del riesgo de re identificación.

Conforme a tales indicadores, cuando el riesgo de re identificación es inapreciable se concluye que no hará falta seguir disociando los datos. Si bien es lo cierto que dicho análisis se aplica, en la práctica, desde la óptica utility first –límite de riesgo medido en base a que los datos recogidos conserven su utilidad– en lugar de la privacy first  –riesgo de privacidad prevalece sobre utilidad ̶   cuando se realizan estas técnicas.[22]

Del caso de AOL se extrae que (i) nuestra obsesión en nombres y apellidos como identificadores personales decae ante cualquier patrón suficientemente único como elemento identificador de una persona entre las demás de una base de datos y que (ii) debe quedar patente que “identificación” no solo significa ya la posibilidad de recuperar el nombre o la dirección de una persona, sino que también incluye la identificación potencial por singularización, asociación e inferencia, como enseguida veremos. ²³

Siguiendo a GIL GONZÁLEZ, E., puede señalarse que las técnicas de pseudonimización más comunes son la encriptación y la tokenización, que en esencia buscan minimizar todo lo posible el riesgo de re identificación y/o trasladarlo a la esfera del control del titular de los datos con lo que el proceso de re identificación se podría verificar de manera indirecta. La encriptación con una clave secreta permite que el dueño de la clave re identifique a los sujetos des encriptando la clave (por ejemplo, volviendo a asociar cada número de la Seguridad Social con el nombre de la persona). Por su parte, la tokenización se aplica principalmente en el sector financiero para el procesamiento de tarjetas de crédito. Normalmente, la creación del identificador (token) consiste en sustituir los números de DNI (documento nacional de identidad) por valores de escasa utilidad para un posible hacker, pero que garantizan la misma operati­vidad, a través de un sistema de encriptado unidireccional que genera un número aleatorio.

Así, a pesar de que, tradicionalmente, los datos pseudonimizados eran considerados datos anónimos, en la actualidad la pseudonimiza­ción ya no se considera un método de anonimización, pues la persona es todavía identificable, aunque sea de forma indirecta, como hemos visto han demostrado todos estos estudios. Para determinar si una base de datos es anónima o no, el Grupo de Trabajo del Artículo 29, propone: (i) verificar que el fichero no tenga las propiedades de singularización, asociación e inferencia y (ii) realizar un análisis sobre el riesgo de re identificación de los datos.[23]

A éste respecto nos parecen acertadas las críticas a la exigencia de que el fichero no deba incluir las propiedades de asociación e inferencia que hace GIL GONZÁLEZ, E., por cuanto que, efectivamente, no necesariamente se busca la identificación de la persona cuando se trabajan modelos longitudinales  ̶ como en las estadísticas sobre pacientes a lo largo del tiempo ̶  y porque como hemos mencionado, ni siquiera el responsable del tratamiento sabe que información va a ser resultante del proceso de big data. Todo ello al margen de obstaculizar las bondades del big data para estudios médicos, científicos, etc., Y en cuanto al análisis del riesgo de identificación la promesa de alcanzar la anonimización absoluta es imposible de cumplir especialmente, como apunta esta autora, por dos circunstancias:

–  En primer lugar, porque aunque los datos no contengan información que pueda ser considerada de identificación personal (PII, personal identification information), en ocasiones dichos da­tos continúan siendo capaces de diferenciar a una persona de forma única, de modo tal que se puedan asociar esos datos a una persona concreta. Así por ejemplo, cuando los datos contienen información extremadamente rica (como los datos de geolocalización), se puede identificar a una persona.

– Y en segundo término, porque cada vez son más frecuentes y sencillos los denominados ataques de re identificación.

En conclusión, como numerosos autores defienden, el problema no es la capacidad de realizar inferencias, ni el modelo que se crea con el nuevo conocimiento. El problema es el uso que se hace de ese modelo. Lo que se considere un uso adecuado en cada momento dependerá de las normas y los patrones socialmente aceptados, y será por lo tanto una cuestión subjetiva que habrá de ser analizada caso por caso.

Esto no quiere decir que las técnicas no sean útiles y minoren el riesgo de re identificación, pero lo que muchos estudios ya han demostrado es que la anonimización ya no es la panacea de la protección de datos y la privacidad tal y como lo acreditan, entre otros, los casos del Gobernador de Massachussets, William Weld (caso GIC) [24] o el del Premio Netflix.[25]

No obstante lo anterior, podemos sucumbir a la tentación de que todos estos casos nos lleven a la conclusión de que la re identificación siempre es posible. Efectivamente, aun posible, la re identificación resulta altamente improbable con lo que no deberíamos “matar moscas a cañonazos” –en la sospecha de la existencia de una siempre acechante doctora slocum[26] atenta a cualquier despiste para reidentificar pacientes de cualquier hospital–, elevando sin más la exigencia de disociación de los datos, en perjuicio de su utilidad. Antes, al contrario, debemos tener muy consideración el contexto y valorar en el análisis de riesgos de privacidad los elementos de vulnerabilidad realmente existentes, como son: el tratamiento de los datos por el responsable, las medidas concretas adoptadas (hospital que cede datos anonimizados a empresa farmacéutica para estudio de investigación sobre eficacia de nuevo fármaco, etc.,…) que hacen que la probabilidad del evento, es decir del ataque de re identificación, sea mínima y, por tanto, el adversario al que se refieren las normas sobre protección de ataque de re identificación debería referirse únicamente a aquel tercero que se encuentre en el mismo contexto en el que va a recibir los datos y además sea una adversario motivado.

Como se ha indicado y conforme la evolución de ésta institución que hemos expuesto con anterioridad, en el sentido de la imposibilidad de obtener riesgo cero de re identificación, se optado por abandonar el término anonimización por el de pseudonimización superando la concepción prevista en el considerando 26 de la Directiva de Protección de Datos 95/46 CE, así como la Ley y Reglamento español de protección de datos, donde los términos anonimización y disociación implicaban el tratamiento de datos de carácter personal de modo tal que no fuera posible volver a identificarlos –de manera que los datos disociados dejaban de ser considerados como personales y por tanto no objeto de regulación de protección—. Y habida cuenta de que todos estos experimentos y estudios cruzan bases de datos, estructuradas y no estructuradas para conseguir la re identificación, se añade ahora la exigencia de que se garantice precisamente que esta mezcla o cruce  no se realice. Todo lo cual se recoge en el Reglamento Europeo que define la pseudonimización como el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable.[27]

A este respecto, como pone de manifiesto MALDONADO, S. a propósito de las cookies, el hecho de que no se estén almacenando datos personales de identificación significa poco en este contexto, ya que los datos “pseudónimos” (el caso con la mayoría de los ID de usuario, ubicación, IP, huellas dactilares, etc.) requieren igualmente el cumplimiento de la normativa de protección de datos.[28]

Otras técnicas de anonimización relevantes y a tener en cuenta son, la llamada privacidad diferencial y la k-nonimización, donde la primera parte del supuesto de que el riesgo sobre la privacidad de una persona no debería aumentar por el mero hecho de que sus datos se encuentren una base de datos en relación a otras fuente de riesgo que no impliquen el acceso a dicha base, incluyéndose en este grupo de técnicas las de añadir ruido a las bases de datos relacionadas de manera que se enmascare la identidad manteniendo la utilidad de los datos, mientras la segunda se refiere a generalizar los atributos de sujetos que comparten un mismo valor, lo que impide que un sujeto sea individualizado, al menos dentro de ese grupo.[29]

La propia autoridad de control en nuestro país, la Agencia Española de Protección de Datos, concluye que no es posible considerar que los procesos de anonimización garanticen al 100% la no re identificación de las personas, por lo que será necesario sustentar la fortaleza de la anonimización en medidas de evaluación de impacto (EIPD), organizativas, de seguridad de la información, tecnológicas y, en definitiva, cualquier medida que sirva tanto para atenuar los riesgos de re identificación de las personas como para paliar las consecuencias de que éstos se materialicen.[30]

A modo de conclusión puede afirmarse, después de todo este análisis, que en el universo digital actual el consentimiento libre e informado a la hora de la recogida de los datos personales como base de legitimación del tratamiento de los mismos por el responsable está claramente comprometido por la conducta de las organizaciones, la de los propios interesados –paradoja de la transparencia— y, finalmente, por la propia esencia de las tecnologías que se aplican a los mismos –tiranía de la minoría–. Así mismo, tal y  como se ha expuesto, pueden tratarse datos que no siendo personales permiten identificar a una persona por múltiples variables y formas lo que necesariamente nos conduce a esa conclusión acerca de la insuficiencia tanto del consentimiento como de la anonimización para garantizar, por sí solos, la protección de la privacidad en la era digital.

Algunas propuestas de solución a las limitaciones de la anonimización y la eficacia del consentimiento que expone GIL GONZÁLEZ, E.,  han inspirado la nueva normativa europea:

– Así, en relación al deber de información para las organizaciones que no tienen capacidad para informar y obtener el consentimiento especificando a priori los fines de los datos  ̶ pues normalmente se evidencian a resultas de esas nuevas informaciones y no antes ̶ la solución sería una actualización del consentimiento a cargo de las organizaciones al descubrir esos nuevos fines trasladando así la responsabilidad a los responsables del tratamiento, pasando el foco desde el momento de la recolección al del tratamiento. Por ejemplo, reservando el consentimiento a situaciones en las que sea necesario que el individuo renuncie a derechos o tratamientos que de otro modo serían esperables, la forma del consentimiento tomaría un valor real.

– Implantación de lo que se ha denominado «privacidad desde el diseño» y «privacidad por defecto». Los sistemas de privacidad desde el diseño implican que las tecnologías son construidas teniendo en cuenta la necesidad de la protección de la privacidad. Por su parte, los sistemas de privacidad por defecto conllevan que la tecnología está configurada para que las opciones que por defecto vienen establecidas sean las más protectoras de la privacidad; y el individuo puede posteriormente cambiar la configuración para permitir otras utilidades que requieran un nivel de privacidad menor, emulando las configuraciones de seguridad de los navegadores de internet que ya conocemos.

– SENSEMAKING que son tecnologías emergentes diseñadas con el objetivo de permitir que las empresas obtengan una mejor comprensión de su entorno. Para ello es necesario tomar en consideración datos que las empresas ya poseen (por ejemplo, datos de los sistemas financieros de la empresa, de recursos humanos, del sistema operativo, etc.), y otros que no controlan (por ejemplo, datos generados fuera de la empresa y no estructurados como aquellos generados en redes sociales). Estos sistemas permiten analizar cientos de millones de observaciones de fuentes muy diversas, y serán utilizados por las empresas para poder tomar mejores decisiones de forma más rápida. El pionero proceso de creación del sistema de sensemaking desarrollado por Jeff Jonas  ̶ Directivo de IBM ̶  incorporó los principios de privacidad desde el diseño. Así por ejemplo, entre otras medidas de privacidad, Jeff Jonas introdujo métodos que favorecían los falsos negativos. En determinadas circunstancias, es menos dañino perder algunas cosas (es decir, obtener un falso negativo), que sacar conclusiones que no son verdaderas (es decir, obtener un falso positivo). Esta tecnología favorece los falsos negativos de modo que las decisiones erróneas que puedan tomarse sobre un individuo que tengan trascendencia en su vida se reducen.

– La falta de confianza en los modelos actuales de consentimiento y anonimización han propiciado una corriente basada en los derechos de acceso y cancelación de los datos de los individuos de las bases de datos, así como de prevalencia de los sistemas opt-in -marcado de casilla necesario para poder tratar datos ̶ . Para generar la confianza que el entorno necesita, las normas y las leyes no son suficientes por sí solas. Una de las soluciones que se ha propuesto es un modelo de co-regulación en el que las responsabilidades y los derechos sean compartidos entre todos los agentes, y que se base en la creación de los llamados «puertos seguros» en el uso de los datos. Y por supuesto, todo sistema debe ir acompañado de las mayores medidas de ciberseguridad disponibles en cada momento.

– Nuevos modelos de negocio. Denominados «Personal Data Services», donde  las empresas ya no son las que monitorizan los comportamientos de los individuos de forma poco transparente, sino que es el propio individuo quien utiliza estos sistemas de gestión para comunicarse con el resto de agentes y decidir sobre sus datos. Es paradigmático el caso de Wibson[31] que acaba de iniciar su andadura en 2018 con el slogan  «don´t give away your data for free. Make it profit» (no cedas tus datos gratis, obtén un beneficio). Esto implica un cambio de paradigma en la gestión de los datos con respecto a los modelos actuales. Ya no serían las organizaciones las que recolectan, almacenan y analizan los datos para dirigirse al consumidor. Serían los individuos los que gestionarían sus datos y, a cambio, podrían proporcionar sus datos de manera más directa y obtener parte de los beneficios, como por ejemplo una mejor tarifa en su compañía telefónica en función de su historial de llamadas. Es decir, el individuo deja de tener un papel pasivo, a obtener un papel proactivo en el control de sus datos, resultando empoderado.[32]

Junto a Wibson, existen diversas start ups que están poniendo en marcha este tipo de servicios, que constituyen un nuevo modelo de negocio  ̶ Connect. Me o Personal. Com. ̶  y que cubren la necesidad de que los individuos puedan gestionar su privacidad de manera más fácil y, por qué no, obtener incluso a alguna contraprestación a cambio de cederla a terceros, al tiempo de que mejoran la calidad de los datos que se ofrecen  ̶ pues se facilitan directamente por el interesado ̶ y abaratan los costes de cumplimiento de normativa de privacidad de las empresas que confían en estos servicios.

Desde el ámbito de lo público existen también proyectos de empoderamiento de los individuos en relación a su datos personales como el de la Unión Europea, denominado «DECODE» liderado por el Ayuntamiento de Barcelona junto con el de Ámsterdam y en el que, hete aquí lo relevante para éste trabajo, se está utilizando la tecnología  de la cadena de bloques o Blockchain como garantía de esta privacidad.

La cuestión es si, efectivamente, puede esta tecnología ayudar a proteger la privacidad  y superar las limitaciones de la anonimización y el consentimiento –los baluartes de la privacidad— que han sido aquí expuestas.

Juan José Cortés

Responsable del área de Compliance, TIC y Protección de Datos en Devesa & Calvo Abogados.

 


[3] PASTOR SEMPERE, M., «Criptodivisas: ¿una disrupción jurídica en la eurozona?» Universidad de Alicante FinTech, Observatorio de finanzas y tecnología Revista de Estudios Europeos, n. 70, julio-diciembre, 2017. ̶ Como acertadamente apunta ésta autora,  con ocasión de la aparición de la descentralización del registro de los activos con valor, los datos relativos a esas transacciones de valor, serán, junto a los que revelan nuestro comportamiento, el Santo Grial por el que lucharán los defensores y destructores de la privacidad

[4] Machine learning (autoaprendizaje de la propia computadora) es una disciplina científica del ámbito de la Inteligencia Artificial que crea sistemas que aprenden automáticamente; aprender en este contexto quiere decir, identificar tipos de patrones complejos en millones de datos de forma más concreta

[5] Smart cities. Ciudades inteligentes, dado su origen natural de las Ciudades Digitales, se basa en el uso intenso de las Tecnologías de la Información y Comunicación (TIC) en prestación de servicios públicos de alta calidad y calidez, seguridad, productividad, competitividad, innovación, sostenibilidad, emprendimiento, participación, formación y capacitación.

[6] Machting social. Hacemos referencia aquí  a un algoritmo que determina  el índice de coincidencia o compatibilidad entre perfiles de usuarios de una red social dedicada a emparejar estos perfiles sobre la base de unos criterios dados de afinidad

[7] Océano Rojo es la descripción de la alta competencia, un espacio donde lo que se consigue es a costa de los demás, ya sea rebajando los precios o mejorando la calidad. Océano Azul parte del océano rojo para llegar a aguas desconocidas implementando nuevas ideas.

[8] Focus group es un método o forma de recolectar información necesaria para una investigación, que consiste en reunir a un pequeño grupo de entre 6 a 12 personas con el fin de contestar preguntas y generar una discusión en torno a, por ejemplo, cualquier tipo de producto, servicio, idea, publicidad, etc;

[9] Google Analytics es una herramienta de analítica web de la empresa Google y ofrece información concentrada del tráfico de visitas que llega a los sitios web según la audiencia, adquisición, comportamiento y conversiones que se realizan en dichos sitios por millones de usuarios de la red.

[10] https://www.ie.edu/exponential-learning/blog/marketing-digital/por-que-es-imprescindible-conocer-la-experiencia-del-cliente/. Según HubSpot, “[una] buyer persona es una representación semi ficticia de un cliente ideal basada en la investigación de mercado y en los datos reales acerca de los clientes existentes

[11] RAY, S. https://towardsdatascience.com/how-blockchains-will-enable-privacy-1522a846bf65  4 de marzo 2018.

[12] Deep web. Internet profunda, internet invisible o internet oculta es el contenido de internet que no está indexado por los motores de búsqueda convencionales, debido a diversos factores. El término se atribuye al informático Mike Bergman. Es el opuesto al Internet superficial

[13] Principio de minimización exige que el uso de los datos personales sea el estrictamente necesario para la finalidad que se pretenda, que sea por el menor tiempo posible y que tengan acceso el menor número de personas

[14] GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016

[15] El reglamento europeo de protección de datos ha tratado de solventar todas estas cuestiones apuntadas anteriormente en relación a los riesgos para la privacidad planteados a resultas de la digitalización siendo muy consciente de la complejidad de estas interacciones entre la privacidad y las nuevas tecnologías pero, dada la vaguedad y ambigüedad de muchas de sus normas, parece que, finalmente, se ha dejado en manos de los Estados, por un lado, y de las autoridades de control, por otro, la interpretación de las mismas a la hora de su efectiva aplicación y/o desarrollo

[16] Dictamen del Supervisor Europeo de Protección de datos, de 14 de enero de 2011, sobre la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — «Un enfoque global de la protección de los datos personales en la Unión Europea»

[17] BAROCCAS, S., y NISSEBAUM, h., «Privacy, big data and the public good»; Chapter 2: Big data’s End Run Around Anonimity and Consent», Cambrigde University Press (2014). Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016.  Estos autores exponen que la evidencia en este sentido es tajante: los pocos usuarios que leen las políticas de privacidad no las comprenden. De este modo, una redacción sencilla de estas políticas de privacidad podría facilitar su comprensión. No obstante, incluso cuando los usuarios comprenden las políticas de privacidad, los textos escritos en este lenguaje sencillo no permiten tener información suficiente para elaborar un consentimiento informado. Por contra, el detalle que sería necesario para que la política de privacidad diera información suficiente sería abrumador

[18] BAROCCAS, S., y NISSEBAUM, h., «Privacy, big data and the public good»; Chapter 2: Big data’s End Run Around Anonimity and Consent», Cambrigde University Press (2014). Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016. Su teoría parte de la premisa de que la información que voluntariamente comparten unos pocos individuos puede revelar la misma cantidad de información sobre aquellos que deciden no otorgar su consentimiento, en tanto que las instituciones con quienes esa minoría han consentido pueden inferir los mismos resultados para aquella mayoría que no ha consentido.

[19] Caso Cambridge Analitycs y Facebook citados anteriormente

[20] S. RUBINSTEIN, I., «Big data: The End Of Privacy Or A New Beginning?». International Privacy Law, Vol. 3, n.º 2 (2013). Citada por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016

[21] OHM, P.. «Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization». UCLA Law Review, Vol. 57 (2010). Citada por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016. En 2006, el proveedor de servicios de Internet, AOL hizo públicos los datos de 20 millones de búsquedas en internet que os usuarios habían realizado en su motor, correspondientes a 657.000 usuarios, con la única idea de favorecer la investigación libre. Los datos habían sido «anonimizados» (en realidad pseudonimizados), eliminando el nombre de usuario y la dirección IP y sustituyendo los datos por identificaciones numéricas únicas que permitían a los investigadores correlacionar diferentes búsquedas con usuarios individuales. El objetivo era que los investigadores pudieran vincular las búsquedas llevadas a cabo por la misma persona, sin acceder a la información personal. Unos días después, sin embargo, el periódico New York Times sí logró identificar a Thelma Arnold, una mujer viuda de 62 años de la ciudad de Lilburn, a través de sus búsquedas.

[22] Según el profesor Josep Domingo Ferrer. Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016

[23] GRUPO DE TRABAJO DEL ARTÍCULO 29. «Opinion 05/2014 on Anonymisation techniques» (2014). Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016

[24] GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016. Caso GIC: identificación por el trío código postal, fecha de nacimiento y sexo. A mediados de los años 90, en Massachusetts, el denominado Group Insurance Commission (GIC) decidió hacer públicos datos relativos a las visitas al hospital de los funcionarios públicos, con el objetivo de que los investigadores pudieran analizarlos y sacar conclusiones. El GIC «anonimizó» previamente los datos, mediante la eliminación de identificadores personales explícitos, tales como el nombre, la dirección y el número de la Seguridad Social. Pese a ello, cerca de cien atributos de cada paciente y hospital permanecieron en los datos hechos públicos; entre éstos, el código postal, la fecha de nacimiento y el sexo de los individuos. En ese momento, el Gobernador de Massachussets, William Weld, aseguró públicamente que la privacidad de los individuos estaba asegurada. Lantaya Sweeny, directora del Laboratorio de Privacidad de la Universidad de Harvard, realizó un estudio cuyo objetivo era poner de manifiesto las limitaciones de las normas de privacidad y las medidas de seguridad para poder implementar mejoras mediante el uso de algoritmos más fuertes y complejos. Sweeny pidió una copia de los datos publicados y comenzó a intentar reidentificar los datos del Gobernador. Sabía que éste residía en la ciudad de Cambridge (Massachusetts), una ciudad de 54.000 residentes y siete códigos postales. Además, pagando 20 dólares compró el último censo electoral de la ciudad de Cambridge, que contenía, entre otros datos, el nombre, dirección, código postal, fecha de nacimiento y sexo de cada votante. Combinando ambas bases de datos, los datos de GIC y el censo electoral, Sweeny consiguió identificar al Gobernador Weld sin dificultad: únicamente seis personas en Cambridge habían nacido el mismo día que el Gobernador, solo tres de estas personas eran hombres, y solamente él vivía en su código postal. Sweeny envió el historial médico del Gobernador, que incluía diagnósticos y prescripciones, a su oficina. Pero Sweeny no se quedó ahí. Extendió su análisis hasta concluir que el 87.1% de los ciudadanos residentes en Estados Unidos son identificables mediante este trío de atributos: códi¬go postal, fecha de nacimiento y sexo.

[25] NARAYANAN, A., y SHMATIKOV, V., «Robust De-anonymization of Large Datasets (How to Break Anonymity of the Netflix Prize Dataset)». The University of Texas at Austin (2008). Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016. Netflix.Inc, la mayor empresa del mundo proveedora de una tarifa plana mensual multimedia para ver películas y series de televisión, lanzó,. en octubre de 2006, el denominado Premio Netflix. La empresa hizo públicos cien millones de registros de películas de 500.000 usuarios, y ofreció una recompensa a aquel que consiguiera mejorar su servicio de recomendación de películas (que se basa en las películas que otros usuarios con gustos similares puntuaron de forma muy alta). Los datos habían sido anonimizados, de forma que se eliminaron todos los identificadores personales excepto las calificaciones de las películas y la fecha de la calificación; además, se añadió ruido, de forma que las calificaciones de los usuarios fueron ligeramente incrementadas o reducidas. Como fuente de datos externa se utilizó la base de datos pública de Internet Movie Database (IMB), una base de datos online que almacena información relacionada con películas. La cuestión de la que partía el experimento era: ¿cuánto tiene que saber un adversario sobre un suscriptor de Netflix para poder identificar sus datos en la base de datos, y así, conocer su historial completo de películas? Es decir, en términos analíticos el estudio se basó en calcular el tamaño de los datos auxiliares que eran necesarios para reidentificar a los sujetos supuestamente anonimizados. En este sentido, cabría preguntarse si realmente un suscrip¬tor de Netflix considera privado su historial de películas vistas. Incluso aunque la respuesta fuera negativa (lo cual no se puede asumir), eso sería así solo en la medida en que no comprendamos las consecuencias reales de reidentificar estos datos. Tal y como demostró el experimento, la correlación encontrada entre la base de datos anonimizada del Premio Netflix y la base de datos pública de IMB permite conocer información sensible y no pública sobre una persona, tal como preferencias políticas u orientación sexual. En efecto, se logró identificar a uno de los usuarios, una madre de familia lesbiana que mantenía su orientación sexual en secreto, residente en una región muy conservadora de Estados Unidos, y que demandó a la empresa bajo el pseudónimo de Jane Doe. Tras el escándalo, investigadores de la universidad de Texas compararon los datos de Netflix con otros datos públicos sobre calificación de películas. El estudio demostró que un usuario que hubiera calificado tan solo seis películas poco conocidas (aunque de la lista de las quinientas primeras películas), podría ser identificado en el 84% de los casos. Y esta proporción aumentaba al 99% de los casos si, además, se sabía en qué fecha se habían calificado las películas. Así, se demostró que la calificación de las películas creaba una huella personal. Antes de este momento, nadie habría definido las calificaciones a películas como datos de identificación personal.

[26] EL EMAM, K., y ÁLVAREZ, C., «A critical appraisal of the Article 29 Working Party Opinion 05/2014 on data anonymization techniques». International Data Privacy Law Journal, Oxford University Press, Vol. 5, n.º 1 (2015). Citado por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016. Imaginemos un hospital que cede datos previamente anonimizados a una compañía farmacéutica, que a su vez cuenta con altas medidas de seguridad, auditadas, y que sigue las mejores prácticas de conducta en lo que respecta al tratamiento de los datos. En este entorno, la probabilidad de que se llegue a realizar una re identificación de los individuos, ya sea de forma deliberada o accidental, es muy baja.  De forma paralela, sabemos que existe la Profesora Slocum (personaje ficticio), conocida por su habilidad para reidentificar bases de datos médicas, y por publicar los resultados. En este contexto, la Profesora Slocum es un adversario que encaja en la definición de «cualquier otra persona» y que puede llevar a cabo un ataque de re identificación. Una interpretación estricta de la Directiva llevaría a concluir que cuando el hospital cede los datos anonimizados a la empresa farmacéutica se debe tener en cuenta el alto riesgo que representa la existencia de adversarios como la Profesora Slocum. Esto llevaría a utilizar técnicas de anonimización que distorsionen los datos de manera suficiente para que, en caso de que la Profesora Slocum tenga acceso a este fichero, sea incapaz de realizar la re identificación. Esto, como ya hemos visto, implicaría que la utilidad de los datos quedara muy reducida. Sin embargo, en la práctica, los datos se ceden únicamente a una entidad concreta como es la empresa farmacéutica. Las altas medidas de seguridad que protegen a estos datos y sus buenas prácticas de la empresa hacen que la probabilidad real de que la Profesora Slocum tenga acceso a estos datos sea extremadamente baja. Si el hospital tiene la obligación de anonimizar los datos suponiendo en todo momento que la Profesora Slocum tendrá acceso a ellos y sin tener en cuenta el contexto real de la cesión, la utilidad de los datos quedaría muy mermada. Esto a su vez restaría valor a los esfuerzos que la farmacéutica hace por establecer fuertes medidas de seguridad y salvaguardas eficaces. En efecto, tomar en cuenta el contexto es un criterio que ha sido abrazado por el propio GT 29. Éste es también el criterio propuesto por K. El Eman y C. Álvarez, que a mi entender soluciona los problemas prácticos al tiempo que mantiene la protección de la privacidad. Consiste en considerar que «cualquier otra persona» se refiere a cualquier tercero que se encuentre en el mismo contexto que aquél que va a recibir los datos, y que además sea un «adversario motivado»

[27] Art. 4. 5ª Reglamento europeo de protección de datos «seudonimización»: el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable

[28] MALDONADO, S. https://www.linkedin.com/pulse/digital-analytics-gdpr-compliance-sergio-maldonado

[29] GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016 y Cynthia DWORK. «Differential Privacy». Microsoft Research. Citada por GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016

[30] ORIENTACIONES Y GRANTIAS EN LOS PROCESOS DE ANONIMIZACION. AEPD 2016

[31] https://www.crypto-economy.net/wibson-el-mercado-de-data-de-usuarios-con-seguridad-blockchain/  La plataforma Wibson está pensada para toda persona que quiera monetizar sus datos. Basados en el hecho de que  ya se proporciona esta información sin compensación, la propuesta de Wibson parece interesante y digna de ser evaluada. Después de todo los datos del usuario no discriminan, y tampoco los anunciantes. https://wibson.org/

[32] RUBINSTEIN S., Profesora de Derecho de la Información de la Universidad de Nueva York. Citada por  GIL GONZÁLEZ, E., Big data, privacidad y protección de datos, Agencia Española de Protección de Datos 2016., Esta autora sistematiza las características que tiene este nuevo modelo de negocio, sobre la base de las propuestas del Foro Económico Mundial, y de los trabajos de Searls (en el proyecto que dirige, «Project VRM»), de Ctrl-Shift y otros 131.  1. El individuo es el centro del sistema de recolección, gestión y uso de los datos. 2. El individuo decide qué información revelar, de forma selectiva. 3. Control sobre los fines para los que se usan los datos, tanto primarios como secundarios, así como sobre su duración, a través de contratos. 4. El individuo tiene mecanismos para comunicar lo que demanda de forma abierta y flexible, sin estar ligado a ninguna organización concreta. 5. Toma gran relevancia la gestión de los medios para permitir la autenticación de la identidad de los sujetos que accedan al sistema. 6. Medidas de seguridad al más alto nivel.  7. p ortabilidad de datos, de modo que los individuos puedan obtener todos sus datos y moverlos de un proveedor de servicios VRM a otro. 8. Medidas para hacer a las empresas proveedoras de estos servicios responsables de la seguridad de los datos y protegerlos de acuerdo con los distintos niveles de permisos que el individuo ha decidido otorgar. Para ser técnicamente viables, sería necesario que estos sistemas «etiquetas» con metadatos que describan el nivel de privacidad de cada uno de ellos. En tanto estos sistemas contendrían la información más privada de los individuos (desde partidas de nacimiento, pasaporte, contenidos de redes sociales e incluso contraseñas), serían objeto de todo tipo de ciberataques. Es por ello que las medidas de seguridad que deben ser desplegadas deben ser del máximo nivel. Estas medidas de seguridad deberían incluir 132 (i) datos personales encriptados, tanto en el lugar de almacenamiento como durante las transferencias de datos; (ii) las claves para des-encriptar la información deben estar guardadas en silos externos; (iii) los metadatos también deben estar encriptados; (iv) las medidas de autenticación de los individuos que accedan a los datos deben ser del más alto nivel. Tal y como señala Ira S. Rubinstein, este sistema está alineado con los principios de protección de datos europeos, al tiempo que ofrece una solución a los problemas que el big data impone sobre la gestión de los datos y la privacidad de los individuos. El Foro Económico Mundial propone dos fases para desarrollar el nuevo modelo de negocio basado en esta creación de permisos diferenciados en función del contexto 133. El primer paso para ayudar a los individuos a poder ejercitar un mayor control sobre sus datos es el derecho a obtener una copia de todos los datos que una organización tiene sobre el individuo. De esta forma, los individuos pueden conocer qué datos recogen las empresas sobre ellos. El proyecto Ctrl-Shift llevado a cabo en Inglaterra es un ejemplo de esta propuesta. El proyecto tiene como objetivo proporcionar a quien lo solicite una copia de sus datos obtenidos desde múltiples fuentes (desde bancos, compañías telefónicas, energéticas o el propio Gobierno). Así, los individuos pueden unir toda esta información en un único sistema, bajo su control, y utilizarla de modos que ofrezcan nuevos beneficios o permitan comparar su actividad con otros. Estas copias ayudarán a identificar los derechos de cada uno de los agentes, como primer paso para crear un verdadero sistema de derechos y responsabilidades conjuntos. El segundo paso en este sistema que se propone es la gestión de esta información. Numerosos son los términos que se han acuñado para este método, desde «archivos de datos personales» («personal data lockers»), hasta «gestión de relaciones con proveedores» («vendor relations management» o simplemente «VRM»). Se trata de que cada individuo pueda almacenar y agregar datos provenientes de fuentes diversas, y conceder permisos a las organizaciones para poder acceder a dichos datos de una forma controlada. El objetivo último de estos servicios es conceder al individuo un mayor control sobre cómo se utilizan sus datos

Privacidad y seguridad en el universo digital
Valore esta página
[index]
[index]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]
[index]
[index]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]
[index]
[index]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]
[523.251,1046.50]