15134 Visitas
Ingresar

Glosario

Introducción

En este glosario de términos se incluyen las definiciones de conceptos relevantes en materia de protección de datos personales, en particular que sean poco conocidos, de difícil interpretación o que no sean comúnmente utilizados en el contexto en el que aparecen.

 

Por lo que se refiere a los términos de difícil interpretación y dado que en la plataforma de Jurisprudencia Internacional en materia de Protección de Datos Personales se han incluidos instrumentos internacionales, tanto jurisprudenciales como no jurisprudenciales, que pueden ser aplicables a diversos sistemas de protección de datos personales, se han evitado incluir (1) aquellos cuyas definiciones pudieran no ser extrapolables directamente a cualquiera de los sistemas comprendidos, como por ejemplo la figura del corresponsable del tratamiento, y (2) aquellos que requieren de una interpretación o explicación adicional a la vista de la normatividad, jurisprudencia y/o doctrina aplicables en el contexto en el que se plantean.

 

Para el desarrollo del glosario de términos se han elaborado o citado aquellas definiciones que contemplan elementos comunes para los distintos sistemas de protección de datos personales y que, dada su trascendencia, resultan aplicables en el marco de la presente plataforma de Jurisprudencia Internacional en materia de Protección de Datos Personales. En todos los casos se incluye una referencia a los documentos que se han utilizado como base para identificar, definir o, en su caso, adoptar textualmente los conceptos correspondientes.

 

Este glosario se compone de la lista de los términos en orden alfabético que se comprenden en el mismo y, de los cuales, se proporciona la definición de cada uno de ellos con las referencias correspondientes a los documentos proporcionados en el Corpus Iuris.

Definiciones

A

  Anonimato
“En algunos países, se entiende por tal el anonimato computacional (es decir, el correspondiente a los casos en que resulta computacionalmente difícil identificar directa o indirectamente a un interesado, aun en el caso de que el responsable del tratamiento colabore), mientras que en otros países equivale al anonimato perfecto (es decir, el que se produce cuando resulta imposible identificar directa o indirectamente a un interesado, aun en el caso de que el responsable del tratamiento colabore). Sea como fuere, en ambos casos el concepto de anonimización hace referencia al proceso por el cual se hacen anónimos determinados datos. La diferencia estriba en lo que se considera como nivel aceptable de riesgo de reidentificación.” (Dictamen 5/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 30) (Dictamen 5/2014 sobre técnicas de anonimización).
  Anonimización
Tratamiento de los datos personales de forma que el resultado del mismo asegure que la identificación de la persona a la que se refieren aquéllos es irreversible. Es decir, el resultado de dicho tratamiento, aplicando técnicas de anonimización a los datos personales, debería dar lugar a que no haya un riesgo residual de reidentificación de la persona a la que refieren dichos datos personales. Es “una técnica que se aplica a los datos personales para obtener una desidentificación irreversible” (Dictamen 5/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 7), de manera que por anonimización se entiende también “el resultado de un tratamiento de datos personales realizado para impedir de forma irreversible la identificación del interesado”. Es necesario considerar que “[l]a anonimización lleva implícito un factor de riesgo que ha de tenerse en cuenta al evaluar la validez de las técnicas de anonimización, incluidos los posibles usos de los datos «anonimizados» mediante estas, además de considerarse asimismo la gravedad y probabilidad del riesgo.” (Dictamen 5/2014, pág. 7) (Dictamen 5/2014 sobre técnicas de anonimización).
  Autenticación biométrica
Véase la definición de verificación biométrica.
  Autoridad de control independiente (“autoridad de protección de datos”)
"Una autoridad de control o supervisión en materia de protección de datos es la encargada de velar por el cumplimiento de la normatividad sobre protección de datos personales por los sujetos obligados y de desarrollar otras funciones en virtud de las potestades que tenga atribuidas en la materia. Por “autoridad independiente”, a la vista de la jurisprudencia del Tribunal de Justicia de la Unión Europea (TJUE), se entiende la que pueda ejercer sus funciones sin “influencia externa, incluida la ejercida directa o indirectamente” ya que ello es una garantía para que pueda “actuar con objetividad e imparcialidad”. Dicha independencia “no basta por sí sola para preservar a dicha autoridad de control de toda independencia externa”, teniendo que evitar cualquier situación que pudiera dar lugar a “una especie de «obediencia debida»”, ya que debe estar “por encima de toda sospecha de parcialidad” dado “el papel de guardianas del derecho a la intimidad que asumen” estas autoridades. Además, la independencia “incluye la obligación de respetar la duración del mandato de las autoridades de control hasta su expiración y de poner fin antes de tiempo al mismo únicamente cuando se observen las normas y las garantías de la legislación aplicable.”

B

  Biometría multimodal
Según la definición dada por el Grupo de Trabajo de artículo 29 de la Directiva 95/46/CE, es “la combinación de diversas tecnologías biométricas con el fin de aumentar la exactitud o rendimiento del sistema (también se denomina biometría a varios niveles). Los sistemas biométricos utilizan dos o más rasgos o modalidades biométricas del mismo individuo en el proceso de búsqueda de correspondencias. Estos sistemas pueden funcionar de distintas maneras, bien recogiendo datos biométricos diferentes con distintos sensores o recogiendo múltiples unidades del mismo elemento biométrico. Algunos estudios incluyen también en esta categoría los sistemas que funcionan realizando múltiples lecturas del mismo elemento biométrico o aquellos que utilizan algoritmos múltiples para la extracción de características de la misma muestra biométrica. Ejemplos de sistemas biométricos multimodales son el pasaporte electrónico a escala de la UE, así como los servicios de identificación biométrica US-VISIT en los Estados Unidos.” (Dictamen 3/2012 sobre la evolución de las tecnologías biométricas, pág. 6).
  Bloqueo de los datos personales
Retención de los datos personales de manera que permitan la identificación de los interesados (WP239), limitando su tratamiento salvo que ello fuera necesario por motivos específicos y por personas autorizadas para ello conforme a las medidas de seguridad aplicables.

C

  Categorización biométrica
La categorización o separación de un individuo por un sistema biométrico es definida por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE como “típicamente el proceso de establecer si sus datos biométricos pertenecen a un grupo con características predefinidas, a fin de adoptar una medida específica. En este caso no es importante identificar o verificar al individuo, sino asignarle automáticamente a una categoría determinada. Por ejemplo, una pantalla de publicidad podrá mostrar diferentes anuncios dependiendo del individuo que la mira, basándose en su edad o sexo.” (Dictamen 3/2012 sobre la evolución de las tecnologías biométricas, pág. 6).
  Computación ambiental o invisible (“ambient computing”)
Es una tecnología fundamental para el Internet de las Cosas (Internet of Things, IoT), siendo una de sus principales aplicaciones las casas inteligentes (“smart homes”) y las oficinas inteligentes (“smart offices”) compuestas por dispositivos con una sofisticada capacidad de tratamiento de la información. En estos casos, la computación ambiental ayudaría a una mejor eficiencia energética y a que las personas tengan más información que les permita tomar decisiones sobre su consumo de forma remota.
  Computación vestible (“wearable computing”)
Según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, por computación vestible se entienden “los objetos y prendas de vestir de uso diario, tales como relojes gafas, en las que se han incluido sensores para extender sus funcionalidades ya que pueden incorporar cámaras, micrófonos y sensores que registran y transfieren datos personales al fabricante del dispositivo”.
  Criterios para considerar que una injerencia no es abusiva o arbitraria (art. 11 CADH)
Conforme a la jurisprudencia de la Corte Interamericana de Derechos Humanos, el derecho a la vida privada puede ser restringido por los Estados siempre que las injerencias no sean abusivas o arbitrarias, por ello, las mismas deben “estar previstas en ley, perseguir un fin legítimo y cumplir con los requisitos de idoneidad, necesidad, proporcionalidad, es decir, deben de ser necesarias en una sociedad democrática”. (Caso Tristán Donoso vs. Panamá. CIDH. Sentencia de Fondo de 27 de enero de 2009).
  Criterios para medir la solidez de las técnicas de anonimización
"Para medir la solidez de cada técnica de anonimización de los datos personales, con la finalidad de poder elegir así la más adecuada en cada caso en virtud de si se quiere conseguir la anonimización irreversible o la seudonomización de los datos personales, el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE utiliza los tres criterios siguientes: “i) ¿Se puede singularizar a una persona? ii) ¿Se pueden vincular registros relativos a una persona? iii) ¿Se puede inferir información relativa a una persona?” (Dictamen 5/2014, pág. 3) (Dictamen 5/2014 sobre técnicas de anonimización)."
  Criterios para considerar una injerencia conforme con el artículo 8, apartado 2 del CEDH
"Una injerencia en la protección de datos personales será conforme con el artículo 8, apartado 2 del Convenio Europeo de Derechos Humanos (CEDH) si concurren los requisitos siguientes: 1. Es conforme con la ley (“criterio de conformidad con la ley (art. 8.2 del CEDH)”) 2. Persigue los objetivos legítimos establecidos en el artículo 8, apartado 2 (“criterio de perseguir un objetivo legítimo (art. 8.2 del CEDH)”); y 3. Es necesaria en una sociedad democrática (“criterio de ser necesaria en una sociedad democrática (art. 8.2 del CEDH)”. (Dictamen 1/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 6) (Dictamen 5/2014 sobre la aplicación de los conceptos de necesidad y proporcionalidad y la protección de datos en el sector de los organismos con funciones coercitivas)."
  Criterio de conformidad con la ley (art. 8.2 del CEDH)
Conforme a la jurisprudencia del Tribunal Europeo de Derechos Humanos (TEDH) y como resume el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE este criterio de conformidad con la ley consiste en que “[u]na actividad debe tener cierta base en la legislación nacional y ser compatible con el Estado de Derecho” y “la ley debe ser suficientemente accesible y previsible, es decir, debe estar formulada con precisión suficiente para que la persona pueda regular su conducta” (Dictamen 1/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 6) (Dictamen 5/2014 sobre la aplicación de los conceptos de necesidad y proporcionalidad y la protección de datos en el sector de los organismos con funciones coercitivas).
  Criterio de perseguir un objetivo legítimo (art. 8.2 del CEDH)
Tal como indica el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE “[e]ste criterio se explica razonablemente por sí mismo, pero está estrechamente relacionado con el requisito de que cualquier injerencia será «necesaria en una sociedad democrática». A fin de perseguir un objetivo legítimo es necesario que una actividad se lleve a cabo en cumplimiento de uno de los objetivos establecidos en el artículo 8, apartado 2, por ejemplo, la prevención o detección de delitos, la protección de los derechos y libertades de los demás, etc.” (Dictamen 1/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 7) (Dictamen 5/2014 sobre la aplicación de los conceptos de necesidad y proporcionalidad y la protección de datos en el sector de los organismos con funciones coercitivas).
  Criterio de ser una medida necesaria en una sociedad democrática (art. 8.2 del CEDH)
Hay que considerar, tal como indica el Grupo de Trabajo del artículo 29, que “la «necesidad» no debe interpretarse de manera demasiado amplia, puesto que esto haría más fácil que se eludieran los derechos fundamentales. Tampoco debe interpretarse demasiado literalmente, ya que esto elevaría demasiado el listón y complicaría en exceso el justificar actividades que pueden interferir de manera legítima con los derechos fundamentales.” Al respecto, los elementos de prueba que son relevantes son los siguientes: “Necesidad social imperiosa - ¿Se corresponde la injerencia con una necesidad social imperiosa? Proporcionalidad – ¿Es la injerencia resultante de la medida proporcionada al objetivo legítimo perseguido? Motivos relevantes y suficientes – ¿Son relevantes y suficientes los motivos dados para justificar la injerencia?” (Dictamen 1/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 8) (Dictamen 5/2014 sobre la aplicación de los conceptos de necesidad y proporcionalidad y la protección de datos en el sector de los organismos con funciones coercitivas).

D

  Datos anónimos
El Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE los define como “cualquier información relativa a una persona física que no permita su identificación por el responsable del tratamiento de los datos o por cualquier otra persona, teniendo en cuenta el conjunto de medios que puedan razonablemente ser utilizados por el responsable del tratamiento o por cualquier otra persona, para identificar a dicha persona. «Datos anonimizados» serán, por lo tanto, los datos anónimos que con anterioridad se referían a una persona identificable, cuya identificación ya no es posible.” (Dictamen 4/2007 sobre el concepto de datos personales, pág. 23).
  Datos biométricos
Según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, los datos biométricos son “propiedades biológicas, características fisiológicas, rasgos de la personalidad o tics, que son, al mismo tiempo, atribuibles a una sola persona y mensurables, incluso si los modelos utilizados en la práctica para medirlos técnicamente implican un cierto grado de probabilidad” (Dictamen 4/2007 sobre el concepto de datos personales, pág. 9).
  Datos de localización
Cualquier dato tratado en una red de comunicaciones electrónicas que indique la posición geográfica del equipo terminal de un usuario de un servicio de comunicaciones electrónicas disponible para el público (artículo 2.c de la Directiva 2002/58/CE, disponible en http://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1480193179642&uri=CELEX:32002L0058).
  Datos de tráfico
Cualquier dato tratado a efectos de la conducción de una comunicación a través de una red de comunicaciones electrónicas o a efectos de la facturación de la misma (artículo 2.b de la Directiva 2002/58/CE, disponible en http://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1480193179642&uri=CELEX:32002L0058).
  Derecho al olvido
Derecho de la persona a solicitar, por sí misma o a través de su representante legal conforme a los requisitos de la normatividad sobre protección de datos, a un motor de búsqueda o buscador que la información personal relativa a la misma, una vez examinado si procede en atención a otros derechos que pudieran prevalecer, deje de ponerse a disposición del público en general mediante su inclusión del resultado correspondiente en la lista de resultados a partir de una búsqueda basada en el nombre de dicha persona. El hecho de que la lista de resultados no muestre resultados basados en el criterio de búsqueda consistente en el nombre no implica que se borre la información del sitio, página web u otro medio (por ejemplo, un blog, tuit, etc.) en el que se encuentra originalmente y que es accesible mediante la liga que se muestra en dicha lista de resultados (sentencia del Tribunal de Justicia de la Unión Europea de 13 de mayo de 2014, asunto C-131/12 y Guidelines on the implementation of the Court of Justice of the European Union Judgment on “Google Spain and Inc v. Agencia Española de Protección Datos (AEPD) and Mario Costeja González” C-131/12).
  Derecho a la propia imagen
Es uno de los componentes esenciales del desarrollo de la persona y presupone su derecho a controlar el uso de la misma, incluyendo el derecho a oponerse a su publicación (von Hannover v. Germany (no. 2), Grand Chamber, sentencia de de 7 de febrero de 2012, § 96, disponible en http://hudoc.echr.coe.int/eng?i=001-109029#{"itemid":["001-109029"]}).
  Determinación del establecimiento del responsable del tratamiento (criterio europeo)
Para determinar si una empresa, responsable de un tratamiento de datos, dispone de un establecimiento, en país diferente en el que está registrada, procede interpretar tanto el grado de estabilidad de la instalación como la efectividad del desarrollo de las actividades en ese otro Estado miembro tomando en consideración la naturaleza específica de las actividades económicas y de las prestaciones de servicios en cuestión (Weltimmo, §29).
  Dirección MAC
MAC son las siglas en inglés de Medium Access Control y una dirección MAC, según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, es “un identificador único asignado a una interfaz de red y normalmente registrada en componentes como microprocesadores de memoria o tarjetas de red en ordenadores, teléfonos, ordenadores portátiles o puntos de acceso” (Dictamen 13/2011 sobre los servicios de geolocalización en los dispositivos móviles inteligentes, págs. 5 y 6).

E

  Evaluación de impacto sobre la protección de datos (Privacy Impact Assessment, PIA)
Por evaluación de impacto sobre la protección de datos o privacidad se entiende el “análisis de impacto respecto a la protección de datos en casos específicos, por ejemplo, cuando se tratan datos sensibles o cuando el tipo de tratamiento implica riesgos específicos, en particular en caso de utilización de tecnologías, mecanismos o procedimientos específicos, como la elaboración de perfiles o la videovigilancia”. Es decir, se trata de evaluar el impacto que puede tener en la protección de datos personales ciertos tratamientos de datos personales por dar lugar a un nivel de riesgo considerable en cuanto a las consecuencias que podría tener para la persona a la que se refieren los datos personales.

F

  Filtrado de la información contenida en Internet
Tal como lo define el Relator Especial de la Organización de las Naciones Unidas (ONU) sobre la promoción y protección del derecho a la libertad de opinión y expresión, de 17 de abril de 2013, el filtrado de la información contenida en Internet consiste en el “seguimiento automático o manual del contenido en Internet (incluidos sitios web, blogs y medios de información en línea, así como correo electrónico) para restringir o suprimir determinados textos, imágenes, sitios web, redes, protocolos, servicios o actividades”.
  Fines estadísticos
Siguiendo la definición dada en el Anexo de la Recomendación No. R (97) 18 del Comité de Ministros del Consejo de Europa a los Estados miembros sobre la protección de datos personales recabados y tratados para fines estadísticos, un tratamiento con fines estadísticos implica cualquier operación de obtención y/o uso de datos personales que sean necesarios para encuestas estadísticas o para la elaboración de resultados estadísticos. Quedan excluidos de dicho concepto cualquier uso de la información obtenida para la toma de decisiones o medidas relativas a la persona física a la que se refieren los datos personales.
  Firma biométrica
Tal como la define el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE “es una técnica biométrica basada en el comportamiento, que mide la conducta de una persona según lo expresado por la dinámica de su firma manuscrita. Mientras que el reconocimiento de firma tradicional se basa en el análisis de características fijas o geométricas de la imagen visual de la firma (aspecto de la firma), la firma biométrica, en cambio, hace referencia al análisis de las características dinámicas de la firma (cómo se hizo la firma) y esto hace que estas técnicas se denominen «firma dinámica».” (Dictamen 3/2012 sobre la evolución de las tecnologías biométricas, pág. 29).

G

  Grupo empresarial
“Grupo constituido por una empresa que ejerce el control y sus empresas controladas” (art. 4.19 del Reglamento Europeo de Protección de Datos).

H

  Huella electrónica
Es la huella o traza electrónica que, de no hacerse usando herramientas de protección de la privacidad, tales como las de anonimización, se deja con cada transacción que se hace en línea o visita a un sitio, página web, blog, etc. Dicha huella, cuando incluye datos personales, puede dar lugar a que se haga un perfil sobre el tipo de persona que es el usuario al que se refieren los datos personales o sobre sus intereses.

I

  Identificación biométrica
El Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE indica que “la identificación de un individuo por un sistema biométrico es normalmente el proceso de comparar sus datos biométricos (adquiridos en el momento de la identificación) con una serie de plantillas biométricas almacenadas en una base de datos (es decir, un proceso de búsqueda de correspondencias uno-a-varios).” (Dictamen 3/2012 sobre la evolución de las tecnologías biométricas, pág. 6).
  Impacto en protección de datos personales
“Se trata de un concepto mucho más amplio que daño o perjuicio a uno o más interesados en concreto, de manera que se refiere a cualquier posible consecuencia (potencial o real) del tratamiento de datos personales. Este concepto no está relacionado con la noción de violación de los datos personales y es mucho más amplio que las repercusiones que puedan derivarse de dicha violación. En definitiva, el concepto de impacto en protección de datos personales engloba las diversas maneras en las que un individuo pueda verse afectado, positiva o negativamente, por el tratamiento de sus datos personales.” (Grupo de trabajo del artículo 29, http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommendation/files/2014/wp217_es.pdf).
  Indexar
Acción que consiste en que un buscador o motor de búsqueda crea un índice de páginas que han sido previamente rastreadas para saber dónde buscar de manera que cuando el usuario hace una búsqueda el motor de búsqueda presentará los resultados basados en la organización del contenido y su indexación (Fuente: Rastreo e indexación, http://www.google.es/intl/es/insidesearch/howsearchworks/crawling-indexing.html).
  Interés legítimo
“[…] un interés aceptable en virtud de la ley, es decir, cuando responsable del tratamiento pueda perseguir este interés de conformidad con las leyes relativas a la protección de datos y con el resto de la legislación. Por tanto, el interés legítimo debe: a) ser lícito (es decir, de conformidad con la legislación aplicable); b) estar articulado con la claridad suficiente para permitir que la prueba de equilibrio se lleve a cabo en contraposición a los intereses y los derechos fundamentales del interesado (es decir, suficientemente específico), y c) representar un interés real y actual (es decir, no especulativo).” (Grupo de trabajo del artículo 29, http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommendation/files/2014/wp217_es.pdf).
  Interés vital
“Cuestiones de vida o muerte o, en su caso, amenazas que supongan un riesgo de lesiones u otro daño para la salud del interesado” (Grupo de trabajo del artículo 29, http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommendation/files/2014/wp217_es.pdf).
  Internet de las Cosas (Internet of Things, IoT)
Según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, el Internet de las Cosas “se refiere a una infraestructura en la que billones de sensores embebidos en dispositivos comunes de uso diario –“cosas” como tal, o cosas vinculadas a otros objetos o personas- que han sido diseñados para registrar, procesar, almacenar o transferir datos y, en la medida en que están asociados con un identificador único, interactuar con otros dispositivos o sistemas utilizando las capacidades de red”.

N

  Nivel adecuado de protección de datos (“protección adecuada”)
Una protección adecuada de la persona por lo que respecta al tratamiento de sus datos personales implica adoptar tanto medidas de derecho sustantivo como normas procedimentales que garanticen los principios y derechos de la protección de datos personales, así como contar con una autoridad de control independiente (art. 8.3 de la CDFUE). A efectos de una transferencia internacional de datos desde un Estado miembro de la Unión Europea a un tercer país, el nivel adecuado de protección de datos personales “debe apreciarse teniendo en cuenta todas las circunstancias relacionadas con la transferencia o la categoría de transferencias”, tal como indica el considerando 56 de la Directiva 95/46/CE. Este nivel de protección adecuada por un tercer país se considerará, como indica el apartado 6 del artículo 25 de la Directiva 95/46/CE “a la vista de su legislación interna o de sus compromisos internacionales”.
  Normas corporativas vinculantes
“Las políticas de protección de datos personales asumidas por un responsable o encargado del tratamiento establecido en el territorio de un Estado miembro para transferencias o un conjunto de transferencias de datos personales a un responsable o encargado en uno o más países terceros, dentro de un grupo empresarial o una unión de empresas dedicadas a una actividad económica conjunta” (art. 4.20 del Reglamento Europeo de Protección de Datos).

P

  Perfil
Tal como se define en la Recomendación CM/REC(2010) 13 del Comité de Ministros del Consejo de Europa a los Estados miembros sobre la protección de las personas con respecto al tratamiento automatizado sus datos en el contexto del perfilado (“profiling”), por perfil se entiende el conjunto de datos que caracterizan a una categoría de personas y que se aplicará a una persona.
  Perfilado (“profiling”)
Tratamiento de datos personales en el que se pueden integrar informaciones personales procedentes de diferentes fuentes y que serán utilizados con diferentes finalidades creando uno o varios perfiles de la persona a la que hacen referencia. Dicho tratamiento de datos personales, que da lugar al perfilado, implica varios riesgos ya que dicho tratamiento podría hacerse sin observar los principios de la protección de datos personales, como por ejemplo los de consentimiento, información o calidad y finalidad. En concreto, se aplica un “perfil” a una persona con la finalidad de tomar decisiones sobre la misma o para analizar o predecir su preferencias, comportamientos o actitudes. Es por ello que, este tipo de tratamiento de datos personales debería requerir una evaluación del impacto sobre la privacidad (en inglés, Privacy Impact Assessment, PIA).
  Privacidad
Conforme a la definición dada por el Relator Especial de la Organización de las Naciones Unidas (ONU) sobre la promoción y protección del derecho a la libertad de opinión y expresión, de 17 de abril de 2013, es “la presunción de que el individuo debe tener una esfera de desarrollo autónomo, interacción y libertad, una “esfera privada” con o sin relación con otros y libre de la intervención del Estado y de la intervención excesiva no solicitada de otros individuos no invitados. El derecho a la intimidad también es la capacidad de las personas para determinar quién posee información acerca de ellos y cómo se utiliza dicha información”.
  Privacidad desde el diseño (“privacy by design”)
Es un principio de la protección de datos personales que consiste en “asegurar que las garantías de la protección de los datos se incorporan ya en la fase de planificación de los procedimientos y sistemas” (Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, La protección de la privacidad en un mundo interconectado, Un marco europeo de protección de datos para el siglo XXI, pág. 7.
  Privacidad diferencial
La privacidad diferencial “pertenece a la familia de técnicas de aleatorización, aunque adopta un enfoque diferente. Mientras que, en la práctica, la inserción de ruido tiene lugar antes del momento en que se prevé difundir el conjunto de datos, la privacidad diferencial, por el contrario, puede usarse cuando el responsable del tratamiento de datos genera vistas anonimizadas de un conjunto de datos, al mismo tiempo que conserva una copia de los datos originales. Estas vistas anonimizadas normalmente se generan mediante un subconjunto de consultas de un determinado tercero. Este subconjunto contiene algo de ruido aleatorio que se añade de manera deliberada con posterioridad. La privacidad diferencial indica al responsable del tratamiento cuánto ruido debe añadir, y en qué forma, para obtener las garantías de privacidad necesarias” (Dictamen 5/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 16) (Dictamen 5/2014 sobre técnicas de anonimización).
  Privacidad por defecto (“privacy by default”)
Principio de la protección de datos en virtud del que el responsable del tratamiento implementará mecanismos dirigidos a asegurar que, por defecto, sólo se recaben y traten los datos personales necesarios para la finalidad correspondiente y que no se conserven más datos personales de los necesarios o por más tiempo del que sea necesario para el cumplimiento de la finalidad de que se trate en cada caso (Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (Reglamento general de protección de datos)).
  Prueba del “intruso motivado”
Aplicada en casos de reidentificación de datos personales que habrían sido objeto de un tratamiento de anonimización, y tal como la define el Grupo de Trabajo del artículo 29 del artículo 29 de la Directiva 95/46/CE, consiste en “analizar si un “intruso” sería capaz de lograr la reidentificación si estuviera motivado para ello. El “intruso motivado” es una persona (individuo u organización) que desea identificar a la persona de cuyos datos personales se han derivado los datos anonimizados. Esta prueba tiene por objeto determinar si el intruso motivado tendría éxito. El enfoque presupone que el “intruso motivado” es competente y tiene acceso a recursos acordes con la motivación que pueda tener para la reidentificación. Algunos tipos de datos serán más atractivos para un “intruso motivado” que otros.” (Dictamen 6/2013 sobre datos abiertos y reutilización de la información del servicio público (ISP), pág. 18).
  Publicidad comportamental (“behavioral advertising”)
Tal como la define el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, la publicidad comportamental “es publicidad basada en la observación continuada del comportamiento de los individuos. La publicidad comportamental busca estudiar las características de dicho comportamiento a través de sus acciones (visitas repetidas a un sitio concreto, interacciones, palabras clave, producción de contenidos en línea, etc.) para desarrollar un perfil específico y proporcionar así a los usuarios anuncios a medida de los intereses inferidos de su comportamiento.” (Dictamen 2/2010 sobre publicidad comportamental en línea, pág. 5.
  Publicidad contextual
Conforme a la definición del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE “es la que se selecciona en base al contenido que está viendo el sujeto en un momento determinado. En el caso de un buscador, el contenido puede derivarse de las palabras clave de la búsqueda, de la búsqueda anterior o de la dirección IP del usuario si esta indica su probable situación geográfica” (Dictamen 2/2010 sobre publicidad comportamental en línea, pág. 5).
  Publicidad segmentada
El Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE la define como “publicidad seleccionada en base a las características conocidas del sujeto (edad, sexo, ubicación, etc.) proporcionadas por el usuario al inscribirse o registrarse” (Dictamen 2/2010 sobre publicidad comportamental en línea, pág. 5).

R

  Reconocimiento facial
Según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, el reconocimiento facial “es el tratamiento automático de imágenes digitales que contienen las caras de personas a fines de identificación, autenticación/verificación o categorización de dichas personas.” (Dictamen 2/2012 sobre reconocimiento facial en los servicios en línea y móviles, pág. 2).
  Red inteligente
Una red inteligente, siguiendo la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, “es una red eléctrica inteligente que combina la información procedente de los usuarios de esa red a fin de planificar un suministro eléctrico más eficiente y económico que el de la situación anterior no inteligente.” (Dictamen 2/2011 sobre la medición inteligente, pág. 4).
  Reglas de Privacidad Transfronteriza (Cross-Border Privacy Rules, CBPR)
Son las políticas de privacidad y prácticas que han sido adoptadas e implementadas por una organización que cumple con el sistema de reglas de privacidad transfronteriza conforme al Marco de Privacidad de APEC (“APEC Privacy Framework”). Estas políticas de privacidad y prácticas se refieren a todos los tratamientos de datos personales realizados por la organización.
  Reidentificación
La reidentificación de la persona a través de sus datos personales consiste en la posibilidad de, a partir de un conjunto de datos considerados como anónimos o el cruce de esos datos con otros datos personales, poder volver a identificar o, simplemente, identificar a la persona a la que se refieren los mismos. La reidentificación se produce cuando el resultado de la anonimización o cuando se trate de datos seudónimos es posible “identificar al interesado mediante «el conjunto de los medios» que «puedan ser razonablemente» utilizados” (Dictamen 5/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, pág. 6) Es decir, la posibilidad de reidentificación implica que no se ha conseguido una anonimización eficaz ya que no se ha impedido que alguien pueda “singularizar a una persona en un conjunto de datos, vincular dos registros en un conjunto de datos (o dos registros pertenecientes a conjuntos diferentes) e inferir cualquier tipo de información a partir de dicho conjunto” (Dictamen 5/2014 sobre técnicas de anonimización, pág. 10). La imposibilidad de reidentificar supone que se hayan eliminado todos los elementos que pueden servir posteriormente para identificar directamente a la persona a la que se refieren los datos personales (Dictamen 5/2014 sobre técnicas de anonimización).
  Responsabilidad (“accountability”)
Como lo define el Grupo de Trabajo de artículo 29 de la Directiva 95/46/CE, el término responsabilidad “proviene del mundo anglosajón donde es de uso general y donde se da una comprensión ampliamente compartida de su significado, aunque la definición exacta de «responsabilidad» resulta compleja en la práctica. Pero de forma general, el término apunta sobre todo al modo en que se ejercen las competencias y al modo en que esto puede comprobarse. Competencia y responsabilidad son dos caras de la misma moneda y sendos elementos esenciales de la gobernanza. Solo cuando la responsabilidad funciona en la práctica puede desarrollarse la confianza suficiente.” (Dictamen 3/2010 sobre el principio de responsabilidad, pág. 8).
  Resultados estadísticos
Siguiendo la definición dada en el Anexo de la Recomendación No. R (97) 18 del Comité de Ministros del Consejo de Europa a los Estados miembros sobre la protección de datos personales recabados y tratados para fines estadísticos, se entiende por resultados estadísticos la información que ha sido obtenida del tratamiento de datos personales para caracterizar un fenómeno colectivo en un grupo de población analizado.
  Robot.txt
Es un protocolo de exclusión de robots, también conocidos como bots, ya que a través del archivo robots.txt una página web puede indicar al robot que analiza el contenido de la misma para, en su caso indexarlo, que no lo haga (Dictamen 1/2008 sobre cuestiones de protección de datos relacionadas con motores de búsqueda).

S

  Servicio OTT (Over-the- Top)
“Contenido, un servicio o una aplicación que se proporciona a un usuario final a través del Internet público y que se incluye en alguna de las siguientes categorías de servicios:
1. Un servicio de comunicaciones electrónicas;
2. Un servicio que no entra en la categoría anterior pero que potencialmente puede competir con aquél;
3. Otros servicios, lo que significa cualquier servicio de la sociedad de la información”
(Fuente: Grupo de trabajo del artículo 29, Opinion 03/2016 on the evaluation and review of the ePrivacy Directive (2002/58/EC), disponible en http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommendation/files/2016/wp240_en.pdf).
  Seudonimización
Tratamiento de datos personales que “consiste en la sustitución de un atributo (normalmente un atributo único) por otro en un registro. Por consiguiente, sigue existiendo una alta probabilidad de identificar a la persona física de manera indirecta; en otras palabras, el uso exclusivo de la seudonimización no garantiza un conjunto de datos anónimo” (Dictamen 5/2014 del Grupo de Trabajo del artículo 29 de la Directiva 95/467CE, pág. 22) (Dictamen 5/2014 sobre técnicas de anonimización).
  Sistema de Reglas de Privacidad Transfronteriza (Cross-Border Privacy Rules (CBPR) System)
Se trata de un sistema que se compone de cuatro elementos: (1) auto-evaluación; (2) revisión del cumplimiento; (3) reconocimiento/aceptación, y (4) resolución de conflictos y cumplimiento, que implica que las organizaciones que quieran participar en el mismo tendrán que adoptar políticas de privacidad y prácticas consistentes con los requisitos del programa aplicables a toda la información personal que traten, recaben o reciban en el ámbito del Marco de Privacidad de APEC (“APEC Privacy Framework”). Las políticas de privacidad y prácticas, en cuanto al cumplimiento de los requisitos del sistema, serán revisadas por un tercero certificador (Accountability Agent) reconocido por APEC.
  Sistemas biométricos
Según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE, los sistemas biométricos “son aplicaciones de las tecnologías biométricas que permiten la identificación automática, y/o la autenticación/comprobación de una persona. Se suelen utilizar aplicaciones de autenticación/comprobación para diversas tareas en campos muy distintos y bajo la responsabilidad de una amplia gama de entidades diferentes.” (Documento de trabajo sobre biometría, pág. 3).

T

  Transparencia con respecto al interesado
La transparencia o información con respecto al interesado, según la definición dada por el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE significa o es “una condición para la posesión del control y de validez del consentimiento. La transparencia por sí misma no es suficiente para legitimar el tratamiento de datos personales, pero es una condición esencial para garantizar la validez del consentimiento.” (Dictamen 15/2011 sobre la definición del consentimiento, pág. 10).
  Tratamiento analítico de datos (“data analytics”)
Es el tratamiento de los datos, sean personales o no, que se basa en el uso de algoritmos lo que permite extraer correccionales y patrones. En caso de que los datos tratados sean personales tendrá que cumplirse con los principios y deberes exigibles en virtud de la normatividad sobre protección de datos aplicable.
  Tratamiento analítico de datos personales
Análisis de los datos personales utilizando algoritmos para extraer el conocimiento predictivo con fines de toma de decisiones (http://www.coe.int/t/dghl/standardsetting/dataprotection/TPD_documents/T-PD33/T-PD-BUR(2015)12Rev%20Big%20Data%20Guidelines_rev_clean_EN.pdf).
  Tratamientos masivos de datos (“big data”)
Significa un tratamiento masivo, que implica el acceso y/o uso automatizado de información, que puede ser personal o no. Si la información es personal entonces estamos ante un tratamiento de datos personales que tendría que cumplir, en su caso, con los principios y deberes exigibles en virtud de la normatividad sobre protección de datos personales.

V

  Verificación biométrica
Tal como lo define el Grupo de Trabajo del artículo 29 de la Directiva 95/46/CE “la verificación de un individuo por un sistema biométrico es normalmente el proceso de comparación entre sus datos biométricos (adquiridos en el momento de la verificación) con una única plantilla biométrica almacenada en un dispositivo (es decir, un proceso de búsqueda de correspondencias uno-a-uno).” (Dictamen 3/2012 sobre la evolución de las tecnologías biométricas, pág. 6).
  Vida privada
Se trata de un concepto amplio, quizás más que el de “privacidad”, lo que supone que sería demasiado restrictivo limitarlo al círculo íntimo (“inner circle”) en el que la persona puede vivir su vida personal excluyendo de la misma por completo al mundo exterior que no se incluye en dicho círculo. El derecho a la vida privada debe comprender también, hasta cierto punto, el derecho a establecer y desarrollar relaciones con otros seres humanos (Niemietz v. Germany judgement, §27).
  Vigilancia de las comunicaciones
Según la definición dada en el Relator Especial de la Organización de las Naciones Unidas (ONU) sobre la promoción y protección del derecho a la libertad de opinión y expresión, de 17 de abril de 2013, por vigilancia de las comunicaciones se entiende “el seguimiento, la interceptación, la recopilación, conservación y retención de información que ha sido comunicada, transmitida o generada a través de redes de comunicación”.
  Vulneración de datos personales (“brecha de datos personales”)
Una vulneración, brecha o “violación de seguridad constituye una violación de datos personales cuando los datos violados son personales” (Dictamen 3/2014 sobre la notificación de violación de datos personales, pág. 17) Los datos personales objeto de la vulneración pueden tener una mayor o menor confidencialidad, llegando a ser públicos, y pueden afectar también en mayor o menor grado los derechos e intereses legítimos de las personas a las que se refieren (Dictamen 3/2014 sobre la notificación de violación de datos personales).