https://doi.org/10.18800/derechopucp.202001.006
Análisis documental sobre el tema del big data y su impacto en los derechos humanos
Documental analysis related to big data and its impact in human rights
EVELYN TÉLLEZ CARVAJAL*
Centro Universitario CIFE (México)
Resumen: El presente artículo tiene como objetivo brindar al lector una aproximación sobre los estudios publicados en los últimos años que dan cuenta del manejo de la infraestructura tecnológica y la gestión del conocimiento que se genera a través de los análisis de grandes cúmulos de datos o macrodatos (conocidos también como big data analytics) relacionados al tema de los derechos humanos.
Actualmente, los individuos alrededor del mundo pueden ver vulnerados sus derechos humanos a través del manejo indiscriminado de la herramienta big data, ya que la información que se genera día a día y segundo a segundo por medio de los dispositivos tecnológicos —como los teléfonos inteligentes— abarca desde los hábitos de consumo de las personas hasta aspectos de su vida privada, como pueden ser sus creencias religiosas o sus datos biométricos. Así, la vulneración de derechos humanos se puede dar desde la manera en que se generan, almacenan y, en general, se tratan los datos de las personas, quienes en ocasiones desconocen cómo es que se están obteniendo y utilizando sus datos.
Como resultado, se encontró que la mayoría de las investigaciones bajo estos parámetros centran el análisis en las distintas normas jurídicas en materia de privacidad y protección de datos, tendientes a regular la manera en que se realiza la minería de datos. Sin embargo, se debe considerar que no solo el derecho a la privacidad se pone en riesgo, sino que existen otros derechos humanos que pueden ser vulnerados al hacer un mal uso de estas tecnologías; por ejemplo, al generar discriminación a partir de la elaboración de listas negras que segreguen a las personas o promuevan el racismo, o al constituir un obstáculo a la libertad de expresión, por mencionar solo algunos casos.
Palabras clave: Big data, datos personales, derechos humanos, derecho internacional, privacidad
Abstract: The aim of this article is to provide the reader a documentary record on the subject of the technological infrastructure and the knowledge management of big data analytics and their relation to human rights.
Currently, human rights violations around the world due to the indiscriminate use of big data analytics is a constant, since the information that is generated every day and every second by the use of technological devices —such as smartphones— makes possible the collection of information, that goes from consumption data to even private information, such as religious opinions or biometric data. Human rights violations due to big data analytics starts by the way personal data is collected and treated. Sometimes people do not know how their data are being processed, stored or used.
As a result of the analysis, it was observed that several articles, books and papers refer to personal data and privacy regulations, focusing in the regulations of the data mining conditions. Despite, those regulations, it can be observed that big data analytics could allow a wide margin for infringement of not only the human right to privacy, but also of another human rights; for instance, through actions that promote racism, the creation of blacklists, the promotion of segregation and the limit of the freedom of speech, just to mention some examples.
Key words: Big data, human rights, international law, privacy, personal data
Contenido: I. INTRODUCCIÓN.– II. METODOLOGÍA.– III. BIG DATA, DERECHOS HUMANOS Y DERECHO INTERNACIONAL EN CONTEXTO.– III.1. EL BIG DATA Y SU MATERIA PRIMA: «LOS DATOS».– III.2. LOS DERECHOS HUMANOS EN LA ERA DEL BIG DATA.– III.3. EL DERECHO INTERNACIONAL EN EL TEMA DE BIG DATA.– IV. A MODO DE CONCLUSIÓN.
I. INTRODUCCIÓN
En este registro documental (CIFE, 2016, p. 1) se presentan algunos documentos, artículos y libros que hacen referencia al manejo de la infraestructura tecnológica y su gestión del conocimiento, específicamente en la recolección y el tratamiento de la información a través de los análisis de grandes cúmulos de datos o macrodatos, también conocido por su anglicismo: big data.
Los análisis de big data son una herramienta que puede servir para impulsar la promoción y protección de los derechos humanos, como lo manifiestan las Naciones Unidas a través de su estudio Macrodatos para el desarrollo sostenible (ONU, s.f.), pero que también puede ser utilizada para vulnerar esos mismos derechos, por lo que debe ser regulada de manera puntual. Por ello, resulta necesario generar información clara y suficiente para que los individuos comprendan cómo el uso de ciertas tecnologías puede afectar sus derechos humanos.
No se puede negar que el big data es una herramienta clave, precisamente, para la generación de nuevos saberes en la denominada sociedad del conocimiento, entendida como «aquella donde las interrelaciones que vinculan a los individuos se sustentan a través del acceso y procesamiento de información con el propósito de generar conocimiento, primordialmente, a través de las tecnologías de la información y la comunicación (TICS)» (Ávalos, 2013, p. 5).
Tampoco se puede negar que los Estados a nivel internacional están conscientes de la importancia de la incorporación del uso de las tecnologías para alcanzar determinadas metas, tanto económicas como políticas y sociales. Hoy por hoy se emplea el concepto de economía digital como un ecosistema que posiciona a los países en un determinado nivel de desarrollo, dependiendo de su capacidad de incorporación y apropiación de la tecnología. «La idea de una sociedad del conocimiento viene a reconocer la importancia fundamental que en todos los países tiene la generación del conocimiento y el desarrollo de tecnologías apropiadas a las realidades locales, a la vez que subraya estos factores como claves para el desarrollo nacional» (Marrero, 2007, p. 85).
De esta manera es necesario explicar qué es el análisis de grandes cúmulos de datos y cómo esta herramienta puede beneficiar o perjudicar a las sociedades en general y a los individuos en particular. Los macrodatos se han definido por distintos expertos como «[…] los conjuntos de datos cuyo tamaño está más allá de las capacidades de las herramientas típicas de software de bases de datos para capturar, almacenar, gestionar y analizar» (Johanes, 2013, p. 2).
Aunque no existe una definición formal del término, su uso se refiere a grandes cantidades de datos o información digital que requiere equipos de cómputo de alto rendimiento y programas o técnicas de análisis especializadas para su procesamiento e interpretación. Su gran atractivo es que permite obtener relaciones, patrones y resultados, que no son accesibles mediante otras metodologías (Oficina de Información Científica y Tecnológica para el Congreso de la Unión, 2018, p. 1).
Por su parte, Rob Kitchin indica que el big data consiste en aquellas bases de datos que son demasiado grandes para caber en una hoja de Excel o ser almacenadas en una sola computadora (2014, p. 1). Además, tanto Kitchin como Nersessian (2018) y Bashari et al. (2016) señalan que los macrodatos tienen ciertas características por: a) su volumen, ya que trabaja con terabytes o petrabytes; b) la gran velocidad con la que se crean las bases de datos, ya que esto se realiza casi en tiempo real; c) su estructura, ya que esta tecnología se encuentra elaborada sobre una gran diversidad y variedad de datos; d) su alcance exhaustivo, pues trata de capturar la información de poblaciones enteras y sistemas completos, incluyendo detalles específicos que permiten la indexación e identificación de los datos; y e) su flexibilidad, ya que puede agregar campos y escalar o expandir su tamaño rápidamente (Kitchin, 2014, pp. 1-2; Nersessian, 2018, p. 846; Bashari et al., 2016, pp. 438-439).
En el análisis de grandes cúmulos de datos se recaban, gestionan y procesan datos de muy diversa índole; por ejemplo, datos en formato de texto, imagen, vídeo o sonido. Este tipo de datos son generados por usuarios de determinadas tecnologías o plataformas como los teléfonos celulares, las cámaras de videovigilancia, los televisores, los relojes y los refrigeradores inteligentes. Dichos datos son almacenados y procesados tanto por agentes gubernamentales como por compañías como Facebook, Google, Amazon, Uber, etcétera (Ureña, 2019, p. 100), razón suficiente para establecer límites que garanticen el adecuado uso de esta información y, sobre todo, su relación con los derechos humanos de las personas (Nersessian, 2018, p. 845).
El problema que se desprende del uso del análisis de macrodatos es que, actualmente, las normas jurídicas no impiden que se dé un manejo poco ético e inclusive ilícito en la captación, gestión y procesamiento de los datos de los individuos que utilizan los medios digitales (Nersessian, 2018, p. 848). A pesar de que el derecho a la privacidad es considerado un derecho humano, su protección en la era de la internet es incierta, en principio por la manera en que se obtiene, resguarda y usa la información (Ureña, 2019, p. 101), pues esta red informática es descentralizada y aquello permite a distintos actores no estatales el tratamiento de datos de los individuos. Ejemplo de esto es la Ley de Privacidad del Consumidor de California, en los Estados Unidos, que se opone a limitar el derecho de las empresas norteamericanas a recolectar los datos de sus consumidores (Duchene, 2019, pp. 2-3); así, los datos se consideran como cualquier otra mercancía susceptible de comprarse y venderse.
El análisis de grandes cúmulos de datos hace posible la recopilación de información sobre tantas personas y de manera tan detallada que estos reflejan los hábitos y gustos de grupos demográficos específicos y ubicados en ciertas áreas geográficas (Ureña, 2019, p. 100). Inclusive se tiene acceso a datos biométricos que pudieran poner en riesgo a grupos vulnerables, como es el caso de migrantes, solicitantes de asilo y refugiados, ya que el «propio procedimiento de protección internacional tiende a recopilar una gran tipología de datos e información personales y que abarca tanto aquellos identificadores entre los que se incluyen nombres, nacionalidades, lugar de procedencia y fecha de nacimiento como los extensos datos de carácter sensible» (García, 2019, p. 255). Con este tipo de información en las manos incorrectas, existen riesgos como la manipulación de los individuos en el contexto político para influenciar en el voto «por medio de la utilización de Webs, SMS, redes sociales, correos electrónicos, blogs, buzones de correos electrónicos, chats, plataformas, vídeos, llamadas automatizadas, etc., [… que] plantea una inédita problemática: la captación y tratamiento ilegítimo de los datos persones de los electores y el uso indebido de los mismos» (p. 310). Así, no podemos dejar de mencionar el caso de Cambridge Analytica y Facebook (Ureña, 2019, p. 101), que, sin lugar a duda, evidencia lo vulnerable que es la privacidad y la intimidad de las personas en el mundo digital. De ahí la relevancia de crear conocimiento en las comunidades para aprender y potenciar las ventajas y reducir las desventajas del uso de las tecnologías. Incluso la Unesco señala que «el elemento central de las sociedades del conocimiento es la capacidad para identificar, producir, tratar, transformar, difundir y utilizar la información con vistas a crear y aplicar los conocimientos necesarios para el desarrollo humano» (Forero, 2009, p. 41).
Sin embargo, parece que ante la incapacidad de las normas jurídicas provenientes de los Estados para evitar un mal uso de los análisis de macrodatos, la solución a esta problemática sigue siendo el apelar, por ahora, a las buenas prácticas de los actores que intervienen en el tema, sean estos proveedores de internet, administradores de sitios web o cualquier otro actor, incluidos los mismos usuarios de internet.
Es necesario entender y dimensionar el hecho de que la técnica de análisis de grandes cúmulos de datos no solo afecta la privacidad de los individuos, sino que también hay otros derechos humanos que pueden verse afectados con un manejo irresponsable de esta información. Lo mencionado puede darse a través de la creación de perfiles falsos en alguna red social con miras a captar víctimas para la trata; la realización de actos de grooming o sexting; la perpetración de ataques con malware para extorsionar a los usuarios a cambio de devolverles el acceso a sus archivos; o incluso la generación de tendencias de opinión en las personas en un intento por influir en su comportamiento, en una franca vulneración a la libertad de opinión (Nersessian, 2018, p. 848).
Con un mal uso de las técnicas de análisis de grandes cúmulos de datos se pueden vulnerar derechos humanos, pues hacen factible generar discriminación hacia las personas por sus creencias, preferencias, religión, etcétera; o bien se puede dar una inadecuada protección a los derechos del consumidor (Paterson & McDonagh, 2018, pp. 1-2), haciendo públicos los resultados de sus compras e inclusive de sus reclamaciones ante un mal producto o servicio, lo que genera la posibilidad de colocarlos en listas negras elaboradas por los prestadores de servicios o proveedores de productos, solo por mencionar algunos ejemplos.
Es menester reconocer que existen diferentes riesgos en cada una de las distintas etapas en que se desarrolla el análisis de big data, a saber: la recolección, almacenamiento, análisis y transferencia de datos, resaltando con esto que las técnicas de análisis de grandes volúmenes de datos parecen dejar al descubierto la imposibilidad de garantizar que no se vulneren los derechos de los individuos (Bashari et al., 2016, p. 445).
En el presente artículo se seleccionaron una serie de textos que abordan el tema del análisis de grandes cúmulos de datos desde dos aspectos: por un lado, como herramienta que fomenta la protección de los derechos humanos; y, por el otro, como una herramienta que necesita ser regulada, tanto a nivel nacional como internacional, precisamente para evitar la vulneración de derechos. Tangencialmente, esta selección de textos pretende brindar a los lectores elementos para conocer o profundizar lo que saben sobre la manera en que los Estados han pretendido normar y garantizar la adecuada utilización de esta herramienta de análisis.
De esta manera, es pertinente conocer cómo los entes estatales están actuando para proteger los derechos de los individuos por medio de normas jurídicas, tanto nacionales y regionales como internacionales, para aprovechar los beneficios del uso de estas herramientas tecnológicas y tratar de mitigar sus efectos adversos, destacando que los resultados de los análisis de grandes cúmulos de datos que se utilizan en la inteligencia artificial no están exentos de controversias, en particular cuando son agentes no estatales quienes poseen, almacenan y, en general, tratan los datos de los individuos todos los días (Sarfaty, 2018, p. 92).
El objetivo final de este análisis documental es contribuir al desarrollo del conocimiento en torno al tema de los derechos humanos y su relación con el big data, resaltando que aunque puede darse la afectación de la protección de datos y la privacidad de las personas, el uso ético y responsable de esta tecnología permite utilizarla para salvaguardar los derechos humanos de los individuos; no obstante, tenemos que estar ciertos de que por ahora no se puede dejar de observar ciertos riesgos en su utilización.
[L]as nuevas tecnologías de la información y la comunicación han creado condiciones para la aparición de sociedades del conocimiento. La sociedad mundial de la información en gestación solo cobrará su verdadero sentido si se convierte en un medio al servicio de un fin más elevado y deseable; la construcción a nivel mundial de sociedades del conocimiento que sean fuentes de desarrollo para todo, sobre todo para los países menos adelantados (Unesco, 2005, p. 29).
El índice de desarrollo humano de las Naciones Unidas «resalta que son las personas y sus capacidades el criterio más importante para evaluar el desarrollo de un país, y no solamente el crecimiento económico» (Márquez, 2017, p. 3), por lo que un enfoque socioformativo1 (Prado, 2018; Luna, 2019; Tobón, 2018) permitiría que las personas, al conocer el tema del big data y sus repercusiones en los derechos humanos, aprendan a identificar y resolver ciertas problemáticas generadas por el uso de las nuevas tecnologías de la información, produciendo una sociedad del conocimiento más informada y, por tanto, preparada para evitar las consecuencias del abuso de estas tecnologías.
II. METODOLOGÍA
A través de un análisis exploratorio y descriptivo se elaboró un registro documental que trata el conjunto de estrategias y métodos de recopilación de información plasmado en documentos, sean estos físicos o digitales, que por medio de herramientas concretas permiten la consulta de las fuentes de donde se obtiene dicha información. Una de las ventajas de elaborar registros documentales es que permite presentar la información recabada de una manera ordenada que, a su vez, facilita la presentación de resultados y hace que la consulta de los materiales sea ágil, permitiendo enunciar el marco teórico y conceptual que sustenta el objeto de estudio, que en este caso es el análisis de big data y su relación con los derechos humanos.
Para llevar a cabo el registro documental se identificaron palabras clave y palabras complementarias, y se elaboró un registro de citas tanto textuales como no textuales de las mismas (CIFE, 2016, p. 1). En este caso, los criterios de búsqueda fueron: big data, derechos humanos y su vinculación.
Las preguntas base de investigación fueron: ¿qué es el análisis de grandes cúmulos de datos?, ¿cómo se relaciona esta técnica de análisis con los derechos humanos?, ¿existen documentos que refieran al big data y los derechos humanos sin limitarse a la protección de datos y la privacidad?, y ¿cómo pueden los análisis de big data favorecer la protección de los derechos humanos?
Se dirigió la búsqueda a aquellos artículos, revistas y documentos que contuvieran la palabra big data en el título, en el resumen, en las palabras clave y en el desarrollo del trabajo mismo, y que tuvieran relación con el tema de los derechos humanos, aunque este criterio de búsqueda no apareciera de forma literal en el título, el resumen o en las palabras clave del documento, pero sí en el desarrollo del trabajo.
Una vez identificados los documentos, se procedió a clasificarlos de acuerdo con los siguientes criterios:
III. Big data, derechos humanos y derecho internacional en contexto
En un mundo globalizado, la incorporación del uso de tecnologías en las distintas sociedades ha tenido una penetración constante. Por una parte, encontramos a los países que poseen riquezas naturales, entre estas minerales raros (litio o coltán, por mencionar algunos) necesarios para la fabricación de herramientas tecnológicas como los teléfonos inteligentes y las computadoras; por otro lado, se encuentran los países productores de tecnología; y, finalmente, tenemos a aquellos países que son solo importadores de tecnologías, entre los cuales se ubican varios de América Latina.
Sin importar si se pertenece a uno u otro país, es una realidad que en sociedades como la nuestra se ha incorporado y aumentado el uso de teléfonos, relojes, refrigeradores y televisores inteligentes, así como de laptops y tabletas. Gracias a estos dispositivos algunas regiones en donde no existía el uso de teléfonos y servicios de larga distancia han logrado tener acceso a la internet, abriendo paso a las bondades y los riesgos que esta tecnología tiene aparejados.
Sin haber tomado plena conciencia del uso de las tecnologías, los individuos comenzamos a modificar nuestra manera de ver noticias, hacer compras e incluso comunicarnos. Se han «modificado nuestros hábitos y costumbres de ocio y laborales o profesionales, como consumidores, en nuestras relaciones como ciudadanos con las diferentes administraciones y en las relaciones con otras personas» (Garriga, 2016, p. 20). En el uso de estas nuevas herramientas se nos requirió compartir información sobre nosotros mismos, crear perfiles, tener contraseñas, hacer uso de aplicaciones so pena de quedar excluidos de ciertos grupos de no hacerlo. Así se dio el comienzo de una sociedad hiperconectada que produce datos a cada segundo, generando la materia prima de los análisis de grandes volúmenes de datos que utilizan desde el reconocimiento facial, la geolocalización y los estados de ánimo hasta el historial de sitos frecuentados, los gustos gastronómicos y el nivel de gastos, entre muchos otros indicadores.
El 70% del universo digital es generado por nosotros mismos a través de nuestra interacción con los diferentes servicios de la red (e-mail, redes sociales, buscadores, Smartphone, etc.). Se trata de una realidad importante que hemos de tener en cuenta y que debe hacernos reflexionar sobre la efectividad de alguna de las normas vigentes en materia de datos personales […] (p. 29).
III.1. El big data y su materia prima: «los datos»
Como quedó establecido en la introducción, no hay un concepto mundialmente aceptado de big data; inclusive, se mencionaron algunas de las características que, según los expertos, poseen los macrodatos como el volumen (petabytes), la velocidad (tiempo real), la diversidad (imagen, sonido, etcétera) y su flexibilidad, entre otras. El big data
[…] hace referencia a dos cuestiones íntimamente relacionadas. En primer lugar, a la gran cantidad de datos disponibles, es decir a la existencia de un masivo volumen de datos que pueden ser utilizados con diversos fines y están al alcance de empresas, estados y particulares. En segundo lugar, con la expresión Big Data se alude también al conjunto de tecnologías cuyo objetivo es tratar grandes cantidades de información, de datos, empleando complejos algoritmos y estadística con la finalidad de hacer predicciones, extraer información oculta o correlaciones imprevistas y, en último término, favorecer la toma de decisiones (Garriga, 2016, p. 28).
Los individuos producimos una cantidad masiva de datos que son de gran valor para las entidades públicas y privadas porque facilitan y controlan las interacciones digitales a través de los motores de búsqueda, además de utilizar objetos como los «denominados “wereables” o “tecnología vestible”, como relojes y pulseras inteligentes o las “google glass”, los relativos a la domótica o los denominados sensores portátiles y el conjunto de dispositivos y aplicaciones para registrar y procesar datos sobre nuestro hábitos cotidianos…» (Garriga, 2016, p. 29).
Al utilizar estos dispositivos, que forman parte de la Internet de las Cosas (IoT) (entendiendo por esta a la interconexión de los objetos cotidianos que están dotados de una inteligencia ubicua, generalmente por medio de la red) (Xia et al., 2012, p. 1101), los individuos ayudamos al incremento de la generación de datos que se pueden utilizar en los análisis de big data. Por ejemplo, utilizar aplicaciones como Google Glass, Epson Moverio, Pebble y Fitbit (Wei, 2014, p. 53), que monitorean las actividades de sus usuarios, hace posible reconstruir el mundo alrededor de ellos por medio de coordenadas de localización, velocidad de movimiento y dirección, así como gracias a las fotos de alta resolución y, en algunos casos, hasta la captura de sonido (Paterson & Maeve, 2018, p. 4).
El análisis de big data se basa en la inteligencia artificial, la misma que es entendida como «el estudio de cómo programar computadoras que posean la facultad de hacer aquello que la mente humana puede realizar» (Escolano et al., 2003, p. IX). Por otro lado, el aprendizaje de las máquinas —o machine learning, en inglés— es definido como «la programación de computadoras para optimizar su desempeño, usando un criterio con datos previos o experiencias pasadas» (Alpaydin, 2010, p. XXXV) para obtener grandes cantidades de datos personales en la toma de decisiones que están relacionadas con los individuos. El análisis de grandes cúmulos de datos incluye la aplicación de un análisis veloz y sofisticado en donde la información de individuos y de grupos humanos es obtenida de diversas fuentes. Para ello, se utilizan herramientas como la inteligencia artificial con el objetivo de procesar y analizar los datos obtenidos para predecir y anticipar los eventos futuros de esa manera (Paterson & Maeve, 2018, p. 3). Cabe señalar que Joyanes expone que el uso del concepto de big data se remonta al año 1984 en el ámbito académico y a 1987 fuera de este (2013, p. 3).
El uso de grandes cantidades de datos es mucho más que una herramienta útil para la toma de decisiones, pues considera que el contar con esa metodología y esas técnicas de investigación del análisis de datos proporciona una visión única, dependiendo del contexto en el que se lleve a cabo, como en la política, la ciencia o los negocios. No obstante, la cuestión es que en esta cadena de suministro de datos existen diversos participantes, que van desde las personas que proporcionan la información, las autoridades o las empresas que recolectan los datos, hasta las personas que van a diseñar los algoritmos para que el cúmulo de información prevea un significado; es decir, que se interpreten los datos (Nersessain, 2018, p. 849).
El análisis de big data permite tener información real de los individuos y, a su vez, modelar los datos para un propósito específico como predecir las decisiones de los individuos (Paterson & Maeve, 2018, p. 18). Si bien esto puede ser beneficioso comercialmente, también puede beneficiar la vida de los seres humanos al permitir el análisis de grandes bases de datos para desarrollar tecnologías basadas en la inteligencia artificial y el maching learning como, por ejemplo, los autos autónomos, las asistentes de teléfonos móviles como Siri, Alexa o Cortana, o los androides tipo Sophia que «generalmente son construidos con el propósito de ayudar a los individuos a completar tareas difíciles o para sentirse menos solos» (Mossbridge et al., 2018, p. 1).
Lo relevante de esta técnica de análisis es que para poder utilizar este cúmulo de datos es necesario que un programador experto elabore algoritmos que permitan su interpretación, ya que «los datos no pueden hablar por sí mismos» (Frith, 2017, p. 173). Además, no importa qué tan grande sea el volumen de los datos que se va a analizar o que tan sofisticado sea el algoritmo para realizar ese análisis, los resultados aún necesitan de los seres humanos para ser interpretados (p. 174). Un hecho significante que señalan Paterson y Maeve es que los programas de inteligencia artificial «aprenden de los datos para poder reconocer inteligentemente nuevos datos y adaptarlos de conformidad a lo aprendido» (2018, p. 3). Los algoritmos que se usan para hacer este análisis de big data generalmente no son transparentes y crean lo que Paterson y Maeve han descrito como el efecto black box. Es aquí, justamente, donde las técnicas de aprendizaje autónomo e inteligencia artificial que permiten que las máquinas logren decidir con base a un código de programación puede representar un riesgo para los derechos humanos (Ureña, 2019, p. 104), pues este tipo de información, puesta en manos de dictadores o potenciales terroristas, puede representar un gran riesgo para las sociedades (Alfaro et al., 2012, p. 111).
Los sistemas de algoritmos que se emplean en el aprendizaje de las máquinas son frecuentemente opacos y es difícil explicar por qué han tomado determinada dirección pues, al final del día, el diseño del algoritmo recae en un individuo que posee su propia ideología, cultura y ética. Sin embargo, cada vez se ponen en práctica más medidas para conocer el grado de influencia de los algoritmos y estas permiten una mayor transparencia en los reportes que acompañan el sistema de decisiones del análisis de los grandes cúmulos de datos (Mauracciole, 2018, p. 281). Es necesario tener en cuenta que se debe probar la utilidad de las herramientas que vigilan tanto la manera en que se procesan los datos como los resultados que estos arrojan (Datta et al., Sen & Zick, 2017, p. 72). Otro problema con el análisis de big data es que debido a que los datos se obtienen de distintas fuentes, no hay claridad sobre el propósito predefinido para su recolección, lo que hace que la información que se pudo haber recogido con un propósito sea utilizada de modo muy distinto al momento en que se somete al análisis con posterioridad por parte de quienes los recolectan (Günther, 2017, p. 195). Un ejemplo de esto se verá más adelante con la sentencia Schrems ante el Tribunal de Justicia de la Unión Europea.
Los retos que surgen de esta herramienta de análisis incluyen las responsabilidades tanto de las empresas privadas, como lo ha puesto de manifiesto la Organización de Naciones Unidas a través de los Principios Rectores sobre las Empresas y los Derechos Humanos. Puesta en práctica del marco de las Naciones Unidas para «proteger, respetar y remediar», en los que se especifica que es responsabilidad de las empresas «abstenerse de infringir los derechos de terceros y hacer frente a las consecuencias negativas sobre los derechos humanos en las que tengan alguna participación» (2011, p. 15). Las empresas que realizan análisis de big data tienen la obligación y responsabilidad de proteger «los derechos humanos internacionalmente reconocidos que abarcan, como mínimo, los derechos enunciados en la Carta Internacional de Derechos Humanos» (p. 15). Y no solo respecto a la protección de los derechos, sino que también en lo que respecta a las reparaciones por aquellas violaciones que pudieran haberse cometido en contra de los mismos. Además, «Si las empresas determinan que han provocado o contribuido a provocar consecuencias negativas deben repararlas o contribuir a su reparación por medios legítimos» (p. 28). Tómese como ejemplo la Armada Electrónica Siria, que en 2011 utilizó cuentas de Facebook falsas, software de monitoreo y virus informáticos (como troyanos y malware) cuyo objetivo era conocer las prácticas de los disidentes del Gobierno (Nersessian, 2018, p. 848).
Otro ejemplo de la relevancia de los análisis de big data y el aprendizaje de las máquinas es la robot Tay de la empresa Microsoft, que fue programada para tener conversaciones vía mensajes de texto y aprender conforme interactuaba con los usuarios. Este ejercicio puso al descubierto que en menos de veinticuatro horas dicho «robot» había aprendido de las personas con las que interactuó que los judíos y el expresidente Bush eran los responsables de los atentados del 9/11; asimismo, este se manifestaba a favor del genocidio, utilizaba expresiones raciales y negaba que hubiera existido el Holocausto. Esto es un claro ejemplo de que las cosas pueden salir mal cuando las máquinas tienen un aprendizaje que proviene de los usuarios incorrectos (Nersessian, 2018, p. 848).
III.2. Los derechos humanos en la era del big data
El concepto de derechos humanos es uno que se acuña posteriormente a la Segunda Guerra Mundial, pues los individuos se vuelven sujetos de derecho internacional tras el juicio de diversos personajes en el Tribunal de Núremberg. Este hecho, sin precedentes hasta entonces, evidenció un cambio sobre los Estados como únicos sujetos del derecho internacional, colocando en el escenario internacional a los individuos. Gracias a esta transformación se dieron pautas para que los Estados y sus autoridades tengan ciertos límites en sus actuaciones; y, en particular, se comienzó a gestar el reconocimiento de ciertos derechos que deben ser poseídos por todos los seres humanos alrededor del mundo.
Thomas Buergenthal señala que el derecho contemporáneo de los derechos humanos consiste en un cuerpo masivo de derechos de individuos y grupos, proclamados en un vasto número de instrumentos regionales e internacionales, así como en una jurisprudencia voluminosa de derechos humanos emitida por las cortes internacionales y los cuerpos casi judiciales que aplican estos instrumentos. Estos instrumentos internacionales incluyen las convenciones y declaraciones adoptadas bajo los auspicios de las Naciones Unidas, así como los instrumentos a cargo de agencias especializadas de esta organización. De igual manera, estos instrumentos regionales e internacionales incluyen derechos civiles y políticos, económicos, sociales y culturales, derechos de las minorías y de los pueblos que juntos conforman el derecho internacional de los derechos humanos (2012, pp. 2-3).
De acuerdo a la página oficial de las Naciones Unidas, y en específico de la Oficina del Alto Comisionado para los Derechos Humanos (ACNUDH, 2006), los tratados internacionales que conforman el derecho internacional de los derechos humanos son: la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial de 1965; el Pacto Internacional de los Derechos Civiles y Políticos de 1976; el Pacto Internacional de Derechos Económicos, Sociales y Culturales del mismo año; la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer de 1979; la Convención contra la Tortura y Otros Tratos o Penas Crueles, Inhumanos o Degradantes de 1984; la Convención sobre los Derechos del Niño de 1989; la Convención Internacional sobre la Protección de los Derechos de Todos los Trabajadores Migratorios y sus Familiares de 1990; la Convención Internacional para la Protección de Todas las Personas contra las Desapariciones Forzadas; y la Convención sobre los Derechos de las Personas con Discapacidad, ambas de 2006.
De estos instrumentos internacionales surge una parte importante de las obligaciones para los Estados, que «se asienta[n] sobre la base de los llamados órganos de tratados o Comités» (Chinchón & Rodríguez, 2018, p. 153). Dichos comités tienen la facultad de emitir decisiones sobre las temáticas que les competen, aunque estas no son legalmente vinculantes.
Así, estamos frente a un vasto número de normas de soft law entendidas como resoluciones, observaciones e informes que, aunque «no existe una definición precisa del término soft law, […] están formulados en términos exhortatorios» (Colmegna, 2012, p. 27). Los pronunciamientos de soft law en el tema de los derechos humanos son muchos. En particular, existe un gran número de referencias en lo que se refiere a la privacidad y el derecho a la intimidad, al honor, a la vida privada de las personas y a la protección de datos personales. Un ejemplo de estos pronunciamientos es la Resolución 73/179 de 2018, emitida por la Asamblea General de las Naciones Unidas, sobre el derecho a la privacidad en la era digital. Esta recoge a su vez las Resoluciones 68/167 de 2013, 69/166 de 2014 y 71/199 de 2016, todas relativas al derecho a la privacidad en la era digital; y la Resolución 45/95 de 1990 sobre la reglamentación de ficheros computarizados de datos personales. Asimismo, en la Resolución 73/179 de la Asamblea General se resalta la preocupación sobre posibles violaciones o transgresiones al derecho a la privacidad con el uso de las
[…] nuevas tecnologías de la información y las comunicaciones, y al mismo tiempo, incrementa la capacidad de los Gobiernos, las empresas y las personas de llevar a cabo actividades de vigilancia, interceptación y recopilación de datos, lo que podrá constituir una violación o una transgresión de los derechos humanos, en particular del derecho a la privacidad establecido en el artículo 12 de la Declaración Universal de Derechos Humanos y el artículo 17 del Pacto Internacional de Derechos Civiles y Políticos […] (Asamblea General de las Naciones Unidas, 2018, p. 2).
Por su parte, el Comité para la Eliminación de la Discriminación Racial, relativa a la lucha contra el discurso de odio racista revisada en la Declaración y Programa de Acción de Durban (2001), resalta en el párrafo 27 de las cuestiones generales la
[…] preocupación porque más allá del hecho de que el racismo esté ganando terreno, las formas y manifestaciones contemporáneas del racismo y la xenofobia están tratando de adquirir reconocimiento político, moral e incluso jurídico en muchas formas entre otras mediante las plataformas de algunas organizaciones y partidos políticos y la difusión de ideas basadas en el concepto de la superioridad racial mediante las modernas tecnologías de la comunicación (ONU, 2001, p. 13).
Y en el párrafo 91 de la misma Declaración, se señala la
[…] profunda preocupación por el uso de nuevas tecnologías de la información, como Internet, con fines contrarios al respeto de los valores humanos, la igualdad, la no discriminación, el respeto por los demás y la tolerancia en particular para propagar el racismo, el odio racial, la xenofobia, la discriminación racial y las formas conexas de intolerancia, y, sobre todo, por la posibilidad de que los niños y jóvenes que tienen acceso a esta información se vean negativamente influidos por ella (ONU, 2001, p. 21).
Se observa en estos pronunciamientos la relevancia en el tema del uso de las tecnologías que pueden representar un riesgo para los derechos humanos.
Por otro lado, también existe una gran diversidad de documentos en el ámbito regional que abordan la temática, en principio respecto a la protección de datos, como en el caso del artículo 16 del Tratado de Funcionamiento de la Unión Europea y el 8 de la Carta de los Derechos Fundamentales de la Unión Europea. En una línea similar están las directrices de privacidad de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y el Convenio 108 del Consejo de Europa de 1981 sobre la Protección de las Personas con Respecto al Tratamiento Automatizado de Datos de Carácter Personal, actualizado ahora al Convenio 108+. Especial mención merece el Reglamento 2016/679 del Parlamento Europeo y del Consejo de la Unión Europea de 2016, que deroga la Directiva 95/46CE del Parlamento Europeo y del Consejo de 1995 sobre la protección de las personas físicas respecto al tratamiento de datos personales. Y no se deben olvidar los documentos del órgano consultivo Grupo de Trabajo del Artículo 29 (Gil, 2016, pp. 49 y 51).
En el tema que nos ocupa también debe resaltarse los nueve principios contenidos en los Lineamientos del Consejo de Europa sobre la Protección de los Individuos con Respecto al Procesamiento de Datos Personales en un Mundo de Grandes Datos del año 2017 sobre: a) la conciencia ética y social del uso de los datos; b) políticas preventivas y evaluación del riesgo; c) límite de propósito y transparencia; d) enfoque mediante diseño; e) consentimiento; f) anonimización; g) el rol de la intervención humana en las decisiones basadas en grandes datos; h) datos abiertos; y i) educación (Consejo de Europa, 2017, pp. 3-6).
Las consecuencias del procesamiento de datos ya no se limitan a los conocidos problemas relacionados con la privacidad, sino que abarcan los prejuicios contra grupos de individuos y una gama más amplia de derechos fundamentales. La tensión entre el uso más extendido del Big Data y la Inteligencia Artificial por un lado, y la creciente demanda de uso de datos ético y socialmente responsable por el otro, revela la falta de un marco regulatorio que pueda abordar los problemas sociales planteados por estas tecnologías (Mantelero, 2018, p. 771).
También en el ámbito de la Organización de los Estados Americanos (OEA), la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos ha establecido estándares para una Internet libre, abierta e incluyente que aborda el tema del big data como un desafío de la Internet, ya que se considera que esta herramienta de análisis puede evaluar las necesidades y tendencias sociales, ayudando a plantear políticas públicas en beneficio de los derechos humanos, por un lado; y, por el otro, las empresas privadas también podrían ofrecer mejores productos y servicios para la sociedad (2017, pp. 81 y 91).
Por otro lado, una parte fundamental de los pronunciamientos jurisdiccionales son los casos específicamente llevados a los tribunales, como el caso de la sentencia Schrems ante el Tribunal de Justicia de la Unión Europea. Este caso involucra el uso de técnicas de big data para recabar información de personas sospechosas con la intención de prevenir y sancionar actos terroristas. En este caso, el señor Schrems —ciudadano europeo— hizo el señalamiento de que sus datos estaban siendo tratados en los Estados Unidos a consecuencia de un acuerdo de puerto seguro, pero que en realidad tal no existía, por lo cual acudió al Tribunal para que cesara el tratamiento de datos por parte del país norteamericano. Entre los resultados de dicho caso, se decidió «suspender la transferencia de datos personales a otros países cuando crean que no cumplen con un nivel adecuado de protección» (Puerto & Sferraazza-Taibi, 2017, p. 223). Este es un caso emblemático pues en él se logró que no se vulneren los derechos de un individuo en particular —en concreto, el manejo de sus datos personales— por sobre acuerdos internacionales en la materia.
En la Corte Interamericana de Derechos Humanos, en cuya jurisprudencia abundan los casos sobre el derecho a la vida privada, como el caso de las Masacres de Ituango vs. Colombia; casos respecto a la vida privada y las conversaciones telefónicas, como el caso Tristán Donoso vs. Panamá; o sobre derecho a la libertad de expresión y la privacidad, como el caso de Herrera Ulloa vs. Costa Rica; los temas específicos relacionados a la violación a derechos humanos que se están derivando por el uso de las técnicas de big data aún no presentan pronunciamientos.
Sarfaty explica que los esfuerzos del derecho internacional de los derechos humanos se han centrado en el cumplimiento de los tratados más que en la prevención de la vulneración estos derechos (2018, p. 76). Es justo en esta situación que las técnicas de big data pueden ayudar, por ejemplo, a predecir y prevenir violaciones de derechos como el desabasto de alimentos; prever catástrofes futuros en el ámbito de la salud (p. 77), previniendo posibles brotes de enfermedades en la población; permitir la localización de posibles actividades criminales en alguna zona determinada; o prevenir el tráfico de personas, explotando los servicios financieros y las compañías de redes sociales (Nersessian, 2018, p. 847).
Actualmente, el uso de big data en el área del derecho se ha incrementado, pero su aplicación en el derecho internacional de los derechos humanos es relativamente nueva (Sarfaty, 2018, p. 76). No hay que pasar por alto que para una adecuada protección de los derechos humanos se requiere de una prevención ex ante, es decir, previa a que acaezcan las violaciones; y que, en cambio, el uso de los grandes cúmulos de datos requiere de un lapso de tiempo para recolectarlos y así detectar violaciones a los derechos. Esto significa, sin embargo, que, al momento de recolectar los datos e interpretarlos, probablemente la violación a los derechos ya pudo haber sucedido, por lo que no se tiene suficiente tiempo para anticiparse y mitigar los riesgos, ocasionando una protección poco efectiva (p. 77).
Sin embargo, las estadísticas que se obtienen con la técnica de análisis de los grandes cúmulos de datos también permiten dar cuenta de las violaciones a los derechos humanos, por lo que pueden considerarse como herramientas útiles para que tanto los agentes gubernamentales como la comunidad internacional puedan hacer uso de ellos, observar tendencias y emitir alarmas. Las Naciones Unidas ya ha considerado los macrodatos para contribuir al desarrollo sostenible a través de su proyecto «Construyendo nuestro futuro juntos», en el cual contempla el uso de los macrodatos para el desarrollo sostenible. Así, por ejemplo, para erradicar la pobreza, se plantea el uso de las «tendencias de gasto en los servicios de telefonía móvil [que] pueden proporcionar indicadores indirectos de los niveles de ingresos o utilizar el seguimiento de los precios de los alimentos en Internet para ayudar a controlar la seguridad alimentaria casi en tiempo real o rastrear el movimiento de los usuarios de teléfonos móviles para ayudar a medir la propagación de enfermedades infecciosas» (Naciones Unidas, s.f.), solo por citar algunos ejemplos.
Por otro lado, es necesario reconocer que el análisis de grandes cúmulos de datos puede derivar también en errores del código de programación; por ejemplo, puede darse el caso de que involuntariamente se identifique a una persona como terrorista, o bien se le niegue a alguien el acceso a servicios médicos, o a ejercer derechos políticos como el voto o a que sea objeto de vigilancia policial, solo por una equivocación en el algoritmo o en el machine learning, algo que no se previó (Nersessian, 2018, p. 90).
No es tema menor que las mediciones cuantitativas no partan de un dato estadístico neutral, pues la tecnología hace posible y calculable la medición de poblaciones para los individuos; es decir que el conocimiento generado a través del big data es parcial, y refleja la geografía y contexto social de las personas que producen dicho conocimiento. Esto significa que sí es relevante quién decide qué se cuenta como dato y qué no, así como también la manera en que este debe ser interpretado, cómo se mide y qué indicadores se usan. Si se pierde de vista esto, se crea una mala interpretación potencial o, peor aún, una manipulación que puede fallar en proteger a las poblaciones vulnerables (Sarfaty, 2018, p. 849).
La calidad de los datos es otro factor que incide y debe de ser considerado pues hay tres situaciones en las que la pureza de los datos puede afectar los resultados. Esto influye por la manera en que se realiza el análisis de los grandes cúmulos de datos; por ello, es preciso entender que, por un lado, se encuentra quien recoge los datos de manera bruta y los vende. Luego, por medio de esa relación contractual, se reciben los datos que se habrán de analizar y se estipula la calidad de los mismos. En una segunda fase se dan los resultados del análisis de datos, que de haberse realizado con datos impuros ya tendrá cierto tipo de sesgo en los resultados; y, finalmente, pero no menos importante, la protección legal que se accionará si se ha hecho una discriminación injusta con los resultados obtenidos del análisis (Hoeren, 2017, p. 27).
Las desigualdades del mundo real se reproducen en los algoritmos y a través de estos vuelven al mundo real. Los sistemas de inteligencia artificial no pueden capturar la complejidad de la experiencia y las necesidades humanas. Los sistemas digitales y la inteligencia artificial crean centros de poder y los centros de poder carentes de regulación siempre plantean riesgos, incluso a los derechos humanos (Bachelet, 2019, p. 2).
Así, las bondades y los riesgos del uso del big data en relación a los derechos humanos son dos caras de la misma moneda. A lo largo de esta aportación se ha hecho referencia a algunos de los derechos humanos que pueden verse robustecidos con el uso de los macrodatos gracias a que posibilitan, entre otras ventajas, la identificación oportuna de riesgos sanitarios, la elaboración de mapas que indiquen la incidencia de violaciones a determinados derechos para poder prevenirlos, el uso de los datos obtenidos por medio de la geolocalización para conocer las rutas que siguen los migrantes, etcétera.
Por el contrario, los derechos que pueden verse vulnerados con los análisis poco ético de los macrodatos, ya sea porque se accede a los datos de una manera poco ética o se diseña un algoritmo que promueve el racismo o la discriminación, o bien porque en el uso del aprendizaje de las máquinas no se delimita con claridad en relación a los resultados que se espera obtener, los riesgos pueden derivar en:
Gran parte de nuestra atención se centra hoy en los problemas relativos a la libertad de expresión en Internet y en la incitación al odio y la violencia. El acoso en línea y las campañas de troleo e intimidación han contaminado algunas secciones de Internet y plantean amenazas muy reales fuera del mundo virtual, con efectos desproporcionados sobre las mujeres. En el caso más trágico, los mensajes contra la comunidad rohingya de Myanmar precedieron a las violaciones y masacres de 2017. Los investigadores en materia de derechos humanos llegaron a la conclusión de que Facebook, con su caudal de noticias alimentado por algoritmos, contribuyó a difundir el discurso del odio y la incitación a la violencia (Bachelet, 2019, p. 1).
Mantelero advierte que una evaluación centrada en los derechos humanos debe dar una mejor respuesta a la demanda de una evaluación integral que incluya no solo la protección de datos, sino también los efectos del uso de los datos sobre los derechos y libertades, como la libertad de expresión, de reunión, de movimiento y también derechos como la no discriminación (2018, p. 771).
III.3. El derecho internacional en el tema de big data
Ahora bien, el análisis de grandes volúmenes de datos es un tema que hoy por hoy interesa a la comunidad internacional. Por un lado, tenemos a los Estados que tienen la capacidad para ser creadores y proveedores de tecnologías; y, por otro, a los Estados que se limitan a la importación de dichos avances tecnológicos. Sin embargo, el uso de las tecnologías puede afectar por igual a los individuos, por lo que al momento de regular el uso de las tecnologías los Estados deben participar en conjunto.
Un Estado, sea creador o mero importador de tecnologías, está inmerso en un mundo globalizado en el que las repercusiones en positivo o negativo del uso de estas tecnologías es generalizado. Una de las herramientas que se utilizan para prevenir y contrarrestar los efectos adversos del uso de las tecnologías es el derecho nacional, pero este se ve influenciado por los avances y lineamientos que se dictan en el contexto internacional, entre ellos los documentos emitidos por organismos internacionales, o bien las sentencias dictadas por tribunales nacionales, regionales o internacionales como las presentadas en el apartado anterior.
El derecho internacional es definido por Herdegen «como la totalidad de reglas sobre las relaciones (soberanas) de los Estados, organizaciones internacionales, y otros sujetos de derecho internacional entre sí, incluyendo los derechos o deberes de los individuos que son relevantes para la comunidad estatal» (2005, p. 3). Ernesto Grün señala que:
En el ámbito de los derechos humanos, por su parte, desde hace varias décadas se ha ido perfilando una suerte de nuevo derecho, en lo que se ha denominado la “comunidad internacional”. Este nuevo derecho no atiende a ésta en cuanto formada por Estados, sino que reconoce directamente a la persona o a la personalidad humana, y no es parte del derecho internacional tradicional, sino que, de alguna manera, ha tenido la misión globalizadora de que los distintos Estados reconozcan la necesidad de la protección humana. Y es justamente en el campo de los derechos humanos donde comienza a notarse con mayor fuerza la aparición de mecanismos e instituciones jurídicas globales. A través de las organizaciones internacionales, de los tratados y otras formas de interrelación y cooperación internacional, se ha formado un subsistema jurídico-institucional, que regula cibernéticamente el sistema social constituido por esta comunidad internacional (2006, p. 332).
En el caso de los análisis de grandes cúmulos de datos, cada Estado que conforma la sociedad internacional ha optado por regular temas relativos a esta técnica de análisis, centrándose principalmente en proteger la privacidad de las personas y la manera en que se tratan los datos personales.
A lo largo del tiempo, diversos países han legislado en materia de protección de datos. Tal es el caso de la Datenschutz alemana de 1970, la Privacy Act de los Estado Unidos de 1974, la Ley Orgánica de España de 1999 sobre la Protección de Datos de Carácter Personal, la Ley 29.733 peruana de 2011, la Ley Federal de Protección de Datos Personales en Posesión de Particulares mexicana (Sánchez & Rojas, 2012, p. 6).
Muchas de las leyes nacionales que han creado los Estados latinoamericanos en la materia de la protección de datos han seguido estándares internacionales que han dictado tanto la Unión Europea (Maqueo et al., 2017, p. 78) como los Estados Unidos, ambos sistemas jurídicos con una visión diametralmente opuesta en lo que respecta al tema. Así, en cuanto a la normatividad en torno a la protección de datos personales, intervienen una pluralidad de actores como son el dueño del dato, el responsable del tratamiento de los datos, el encargado de este tratamiento y, por supuesto, el destinatario de los datos personales, siendo cada uno de ellos pieza clave en el tema de los análisis de grandes cúmulos de datos (Cubillos, 2017, pp. 41-42).
Como se mencionó al inicio de este trabajo, es común encontrar en la literatura relacionada al derecho internacional y el big data el tema recurrente de la protección de datos y la privacidad, ya que los análisis de grandes cúmulos de datos requieren de la materia prima que representan los datos generados por los individuos para recolectarlos y, posteriormente, tratarlos. Sin embargo, en esta contribución se quiso abrir el tema de la técnica de análisis de grandes cúmulos de datos en relación no solo a la protección de los datos personales y la privacidad de los individuos, sino también evidenciando que hay otros derechos humanos que pueden verse vulnerados con los análisis de grandes cúmulos de datos. Así, encontramos que la mayoría de la literatura que estudia esta temática centra su atención justamente en la protección de datos y la privacidad, dejando de lado temas como la discriminación, la segregación y la falta de prevención de posibles actos ilícitos como la incitación al odio, por citar algunos ejemplos.
Dentro de los documentos más relevantes para hacer frente a esta situación de vulneración de los derechos humanos por el uso de técnicas de big data más recientes, se encuentran las Directrices éticas para una inteligencia artificial (IA) fiable, estudio de los expertos que señala que la IA debe ser lícita, ética y robusta. Estas directrices apenas se discutieron el año 2019 y es este año 2020 cuando se podrán tener datos derivados de esta experiencia.
En su versión piloto, este trabajo de los expertos señala la relevancia de la acción y supervisión humana a fin de evitar «efectos potencialmente negativos para los derechos fundamentales» (Grupo de Expertos de alto nivel sobre inteligencia artificial, 2019, p. 33).
Otra aportación al respecto en el ámbito del derecho internacional se presentó durante el 41° periodo de sesiones de mano de alta comisionada de las Naciones Unidas, quien resaltó que
[…] el marco de derechos humanos será esencial para garantizar que las respuestas de las empresas de tecnología y los gobiernos aborden los desafíos, tales como la vigilancia masiva y arbitraria; la seguridad de las personas defensoras de derechos humanos, periodistas y otras personas que dependen del cifrado y del anonimato; mantener las libertades de expresión, asociación y reunión en línea mientras se aborda la incitación al odio y la violencia; la lucha contra la promoción del terrorismo en línea de conformidad con los estándares de derechos humanos; abordar el sesgo perjudicial en el acceso a la atención médica, el empleo y los seguros introducidos por la inteligencia artificial y el big data; amenazas crecientes de ataques y delitos cibernéticos; e interferencia en las elecciones a través de campañas de desinformación impulsadas por herramientas digitales (ONU, 2019).
Por otro lado, como se mencionó líneas atrás, las Naciones Unidas han reconocido la relevancia del uso de los metadatos para alcanzar objetivos como los que se exponen a continuación:
Si bien estos 10 puntos pueden considerarse controvertidos, solo se enuncian por ser parte de las propuestas que, como se indicó previamente, se hacen desde las Naciones Unidas con respecto a los beneficios que pueden resultar de los análisis de los metadatos, sin que sea la intención de este trabajo profundizar en cada uno de ellos.
Se observa, pues, que el derecho internacional respecto a los análisis de grandes volúmenes de datos presenta aportes más puntuales a través de grupos de expertos, aunque se sigue trabajando el tema de la protección de datos personales y vida privada cuando se abordan los temas de big data y derechos humanos; sin embargo, poco a poco se comienzan a abrir más espacios para la reflexión de otros derechos, que se benefician o se ven perjudicados por el big data analytics.
IV. A MODO DE CONCLUSIÓN
Existen aportes de autores como Ureña (2019, p. 100) y Sarfaty (2018, p. 76), quienes opinan que las técnicas de análisis de big data pueden ser utilizadas de manera que ayuden a prevenir las posibles violaciones a los derechos humanos. Gracias a la posibilidad de obtener grandes volúmenes de datos es factible hacer mediciones, predicciones y, con base en ello, realizar la toma de decisiones sobre distintos asuntos de una manera más informada. Ambos autores consideran que el big data puede ser una herramienta de gran utilidad para los derechos humanos; sin embargo, también dejan ver los posibles riesgos que pueden generarse por una mala programación o utilización de la información que se genera a través de estos análisis de datos.
Una de las principales preocupaciones en el uso de estas nuevas formas de análisis es la privacidad de las personas, como lo advierten Paterson y McDonagh (2018, p. 1); no obstante, hay que considerar que la privacidad no es el único derecho que se puede vulnerar con el uso de la técnica de análisis de big data y sería una equivocación no considerar otras violaciones a los derechos humanos, como lo señala Nersessian (2018, p. 848). Un buen ejemplo de esto es el uso de cuentas falsas para incidir en las opiniones y formas de pensar de las personas, la censura, la limitación de la libertad de expresión, y la segregación o promoción del racismo.
Nouvet y Mégret exponen que el análisis de big data, como método cuantitativo para analizar las violaciones a los derechos humanos, es una contribución de gran envergadura para las ciencias sociales; y que a pesar de que este tipo de herramientas tecnológicas no fue planeado precisamente con la finalidad de aportar a los derechos humanos, en la práctica son de gran utilidad (2016, pp. 1-2). Resaltan, también, que es evidente que contabilizar las violaciones a los derechos humanos parecería un acto despreciable, pero que sin embargo es de utilidad pues arroja resultados sobre las violaciones individuales, grupales, regionales y a nivel internacional, lo que permite ver los patrones que se generan en diferentes regiones e incluso llamar la atención de la comunidad internacional cuando hay indicios de que se puede estar dando un patrón de violación a los derechos humanos dentro de un Estado (p. 19).
Algunos resultados positivos en el uso del análisis de big data y los derechos humanos expuestos por Nouvet y Mégret son los obtenidos por el órgano internacional de la Convención para la Eliminación de Todas las Formas de Discriminación contra la Mujer y la Convención sobre los Derechos del Niño, que pidieron a los Estados información estadística sobre las situaciones que evidencien la realidad tanto de las mujeres como de los niños. Este ejercicio, por ejemplo, permitió identificar una alta incidencia de violencia contra las mujeres en Canadá. Otra muestra del uso del big data en favor de los derechos humanos es el trabajo del Human Rights Data Analysyis Group (HRDAG, por sus siglas en inglés), que ha utilizado como una herramienta clave la aproximación de los estudios estadísticos en el campo de los derechos humanos para lograr prever la mortalidad de las personas en prisión o los éxodos masivos de los refugiados, como en el caso de Kosovo, o también para identificar a grupos rebeldes en Siria gracias a los tweets de cerca de 30 000 usuarios (Nouvet & Mégret, 2016, p. 3).
Cada vez más los organismos internacionales, como el alto comisionado de las Naciones Unidas para los Derechos Humanos, elaboran estadísticas para evaluar las prácticas internacionales en materia de desarrollo; por ejemplo, la edad en la que los individuos contraen matrimonio, o los objetivos y estrategias que siguen los Gobiernos y la sociedad civil para reducir la pobreza o la criminalidad (Nouvet & Mégret, 2016, p. 4), todo gracias al análisis de grandes cúmulos de datos. La problemática del big data radica en la programación de los algoritmos, ya que estas tareas las llevan a cabo individuos que no están exentos de una personalidad, una carga psicológica e ideológica, e inclusive de una ética y una moral únicas, por lo que hay que tener en cuenta que estos mismos factores se pueden ver reflejados en el entrenamiento de los algoritmos y, por tanto, en los resultados de los análisis que se realizan por medio de los mismos.
Nersessian indica que en el tema del uso del big data debe haber una guía de principios en la que se obligue a que: a) los Estados protejan los derechos de los seres humanos en relación al manejo de sus datos; b) las corporaciones respeten los derechos humanos como política en sus actividades regulares; y, finalmente, c) los Gobiernos y corporaciones reparen las violaciones a los derechos humanos, si se dan, tras el uso del big data (2018, p. 850). En este sentido, el Consejo de Europa desde el año 2016, la Organización de Cooperación Económica para el Desarrollo en 2004 y el Estado francés desde 2017, han abonado en las normas nacionales y regulaciones que deben de implementarse para que las operaciones comerciales no vulneren los derechos humanos como el de la personalidad. Inclusive ya se ha enfrentado un caso legal en el que se reflejan las normas existentes bajo el derecho internacional, el caso Pueblos Kaliña y Lokono vs. Suriname de 2015, en el que se reconocieron los derechos y personalidades colectivas (p. 850).
Un punto relevante a considerar respecto a los derechos humanos es que las empresas que realizan análisis de big data deben evitar el uso de esta herramienta para dirigir, tanto directa como indirectamente, el actuar de las personas. También se debe considerar que el derecho internacional de los derechos humanos tiene estándares globales, por ejemplo, en lo relativo al tema del almacenamiento de datos en la nube y quiénes pueden acceder a estos. En esa línea, la empresa Microsoft constantemente se resistía a las citaciones de los Gobiernos alegando que los datos se alojaban en otras jurisdicciones y, por lo tanto, las cortes norteamericanas no eran competentes. Así, los derechos humanos se entrelazan con el comercio internacional porque también se impide que haya un flujo global de datos pues puede impactar en los derechos humanos, lo que limita la actividad comercial.
Es importante notar que la manera en que se da la protección a la transferencia de datos y, si es posible, muchas veces al tratamiento que se hace de los mismos, difiere entre un Estado y otro como en el caso de la Unión Europea y los Estados Unidos, que, sin embargo, han accedido a tener un marco regulatorio para el manejo de los datos (Nersessian, 2018, p. 852).
El modelo estadounidense de autorregulación empresarial está siendo cada vez más cuestionado, tanto desde el ámbito político como desde el académico y el ciudadano, por los grandes márgenes de discreción que se otorgan a las empresas en perjuicio de los individuos en aspectos tan medulares como los relativos a qué información personal se recolecta y cómo se usa esta […].
En Europa, la situación es diametralmente diferente, pues desde el 25 de mayo de 2018 está en vigor el Reglamento General de Datos Personales […] que establece medidas en favor de los usuarios, como son los derechos al consentimiento expreso, a retractarse, al olvido, a la rectificación, a conocer qué datos tienen las empresas y cómo los usan, entre otros […] (Calcaneo, 2019, p. 40).
Hoeren hace énfasis específicamente en la calidad de los datos que se utilizan en el análisis de big data, pues deja en evidencia que si no existe calidad en los datos que se utilizan para obtener los resultados, estos serán imprecisos; entonces, los resultados que se arrojen pueden ser erróneos y pueden causar discriminaciones injustas para los individuos (2017, p. 27), lo que es peligroso. Esta situación, explica Hoeren, trae aparejadas otras consecuencias legales, y es que la afectación directa por este tipo de resultados es hasta ahora difícil de demostrar ante los tribunales en general (pp. 27 y 34). Este autor también asevera que la interpretación es la parte más complicada del análisis de big data y que no importa qué tan grande sea la cantidad de datos que se procesan, sino que se entiendan los límites de estos análisis, pues —señala— no se han entendido las bases del big data y, por lo tanto, los resultados se pueden malinterpretar (p. 35).
Metcalf y Crawford, por su parte, resaltan los riesgos en el uso del big data al mencionar que la serie de datos que se presentan en los resultados de investigaciones científicas, sean estos parciales o finales, parecería tener un mínimo de riesgo al ser compartidos. En ese sentido, sostienen que no se contempla el riesgo para los derechos humanos, situación que explican como resultado de una mala interpretación, ya que la publicidad de estos datos que se ponen a disposición de manera abierta puede derivar en muchas ocasiones en que se les dé un uso secundario muy distinto al de la investigación; y que, al combinarlos con otra base de datos, eso puede colocar en situación comprometida a los dueños de dicha información. Por este tipo de situaciones es que hoy las discusiones, estudios y reflexiones invitan al desarrollo de estudios éticos utilizando el big data (2016, p. 1).
Por otro lado, en la actualidad existen diversos estudios que centran el análisis del big data y los derechos humanos, resaltando el tema de la privacidad y la protección de datos, como el artículo «Data protection in an era of big data: The challenges posed by big personal data» de Paterson y McDonagh (2018), consultado para este trabajo. Hay que destacar que aún existe poca literatura que aborde el tema del big data y su relación con los derechos humanos desde dos vertientes. La primera es la que estudia el uso del análisis de big data como herramienta de prevención y protección de los derechos humanos, como lo hace el artículo «Autoridad algorítmica: ¿cómo empezar a pensar la protección de los derechos humanos en la era de “big data”?», de Ureña (2019); la contribución de Sarfaty (2018), que lleva por título «Can Big Data Revolutionize International Human Rights Law?»; o la de Nouvet y Mégret (2016), titulada «Quantitative Methods for Human Rights: From Statistics to “Big Data”». La segunda es la que propone que el big data debe ser regulado a fin de que se evite su uso y se puedan violar derechos humanos, más allá de la privacidad de las personas, como es el caso de las siguientes obras: «The law and ethics of big data analytics: A new role for international human rights in the search for global standards», de Nersessian (2018); «Data protection in an era of big data: The challenges posed by big personal data», de Paterson y McDonagh; y la obra «Where are human subjects in Big Data research? The emerging ethics divide», de Metcalf y Crawford (2016). Es preciso advertir que la poca literatura en español y desde América Latina hace de esta temática un área de oportunidad.
Así, una de las temáticas a profundizar, por ejemplo, es la planteada por Ureña, quien comenta que la regulación de la toma de decisiones basada en algoritmos y el machine learning puede violentar derechos humanos por medio de la segregación, dependiendo de la persona que lleve a cabo la programación del algoritmo (2019, p. 114). Sarafaty, por su lado, comenta sobre cómo los esfuerzos en el derecho internacional de los derechos humanos se han concentrado en el cumplimiento de los tratados más que en la prevención de violaciones a los derechos humanos (2018, p. 73), razón por la cual el análisis de big data puede coadyuvar a la previsión de riesgos; sin embargo, también pone de manifiesto que la recolección de datos, así como el manejo e interpretación de los análisis de grandes cúmulos de datos, están en posesión de empresas privadas que no necesariamente comparten la información con agentes del Gobierno ni garantizan el adecuado manejo de los datos.
Nersessian, a su vez, describe lo que es el big data y expone el tema de los derechos humanos, resaltando que la privacidad como tal se puede ver vulnerada por el uso de técnicas de análisis de big data; no obstante, llama la atención pues no considera que solamente la privacidad se ve vulnerada con esta tecnología, sino que también otros derechos pueden ser transgredidos (2018, pp. 846-847). Paterson y McDonagh, a pesar de que enfocan su análisis sobre todo en el tema de la privacidad, resaltan en su propuesta la creación de normas jurídicas, señalan la relevancia que tienen las omisiones —en particular desde la perspectiva australiana— e indican cuáles son las posibles soluciones, haciendo uso de normas como el Reglamento General de Protección de Datos de la Unión Europea, en vigor desde mayo de 2018 (2018, p. 1).
El presente artículo ha sido un ejercicio que no pretende ser exhaustivo, sino más bien una aproximación al estudio del big data en su relación con los derechos humanos desde la perspectiva de su prevención y protección a través de la identificación y, en la media de lo posible, el evitamiento de riesgos para los derechos humanos que pudieran darse por el uso de esta herramienta de análisis de datos, promoviendo así el análisis de su adecuada regulación.
Consideramos, pues, que el objetivo de este análisis documental se ha cumplido, en tanto era proporcionar una selección de textos que diera cuenta del análisis de grandes cúmulos de datos en relación con los derechos humanos en general y no solo respecto a la temática de la protección de datos y la privacidad. La meta de la búsqueda de fuentes documentales para dar cuenta de la literatura que existe sobre el tema se completó al identificar el criterio del análisis de grandes cúmulos de datos, también conocido como big data analytics, y el concepto de los derechos humanos relacionado al big data.
Además, se consiguió alcanzar la meta de elaborar un registro documental haciendo uso de buscadores como Science Direct, IEEE Explore, Emerald, Oxford University Press, Springer y Google Académico, principalmente. La meta de discriminar aquellos textos que refieren el análisis de grandes cúmulos de datos en relación con otros temas del derecho también se alcanzó, lo mismo que el objetivo de integrar todas las obras para presentar un registro documental que diera cuenta del estado del arte en que se encuentra la herramienta de big data en relación con la promoción de los derechos humanos.
De este modo, las metas planteadas para este registro documental fueron cumplidas en su totalidad al exponer los criterios de análisis por separado, permitiendo vincularlos posteriormente para favorecer en la divulgación del conocimiento que se ha desarrollado en los últimos años con respecto al tema de los derechos humanos y su relación con el big data, especialmente en una sociedad del conocimiento que necesita de información específica para gestionar mejor el conocimiento y potencializarlo en aras de conseguir resultados favorables para los individuos. Es más, aunque no fue un objetivo planteado al inicio de este trabajo, se logró identificar a lo largo del desarrollo del mismo casos concretos del uso del análisis de big data en favor de los derechos humanos.
REFERENCIAS
Alfaro, M., Bonis, J., Bravo, R., Fluiters, E., & Minué S. (2019). Nuevas tecnologías en atención primaria: personas, máquinas, historias y redes. Informe SESPAS 2012. Gaceta Sanitaria, 26(1), 107-112. doi: https://doi.org/10.1016/j.gaceta.2011.12.005
Alpaydin, E. (2010). Introduction to Machine Learning. Londres; Cambridge, Massachusetts: Massachusetts Institute of Technology Press.
Asamblea General de las Naciones Unidas. (2019). Resolución aprobada por la Asamblea General el 17 de diciembre de 2018. Recuperado de: https://undocs.org/pdf?symbol=es/A/RES/73/179
Ávalos Rosado, M. C. (2013). La sociedad del conocimiento. México. Recuperado de: https://static1.squarespace.com/static/51ede959e4b0de4b8d24e8a9/t/5213aa19e4b0750ce7ecb4c6/1377020441113/1.+La+sociedad+del+conocimiento.pdf.
Bachelet, M. (2019). Derechos humanos en la era digital. ¿Quién puede marcar la diferencia? Discurso programático de Michelle Bachelet, Alta Comisionada de las Naciones Unidas para los Derechos Humanos. Nueva York: Naciones Unidas. Recuperado de: https://www.ohchr.org/SP/NewsEvents/Pages/DisplayNews.aspx?NewsID=25158&LangID=S
Bashari Rad, B., Akbarzadeh, N., Ataei, P., & Khakbiz, Y. (2016). Security and Privacy Challenges in Big Data Era. International Journal of Control Theory and Applications, 9(43), 437-448.
Borsiani, A. (2017). Arquitectura Forense. Proyecto idis.org. Recuperado de: https://proyectoidis.org/arquitectura-forense/
Burgenthal, T. (2012). Human Rights. The Max Planck Encyclopedia of Public International Law. Oxford University Press. doi: https://doi.org/10.1093/law:epil/9780199231690/e810
Calcaneo Monts, M. A. (2019). Big data, big data analytics y datos personales en los tiempos de Internet: de la autorregulación estadounidense al Reglamento General de Protección de Datos de la Unión Europea. Estudios en Derecho a la Información, (8), 21-44. doi: https://doi.org/10.22201/iij.25940082e.2019.8.13882
Centro de Investigación de Filosofía y Empresa (CIFE). (2016). Metodología del registro documental para la búsqueda y organización de la información científica. México: CIFE. Recuperado de: https://issuu.com/cife/docs/metodolog__a_registro_documental_1.
Chinchón Álvarez, J., & Rodríguez Rodríguez, J. (2018). La actividad cuasi-judicial de Derechos Humanos, Comité contra la Tortura y Comité contra las desapariciones forzadas: alcances y limitaciones. Valencia: Tirant lo Blanch.
Colmegna, P. D. (2012). Impacto de las normas de soft law en el desarrollo del derecho internacional de los derechos humanos. Revista Electrónica del Instituto de Investigaciones Jurídicas y Sociales “Ambrosio L. Giola”, VI(8), 27-47. Recuperado de: http://www.derecho.uba.ar/revistas-digitales/index.php/revista-electronica-gioja/article/view/34
Comité para la Eliminación de la Discriminación Racial (CERD). (2013). Recomendación General Número 35. La lucha contra el discurso de odio racista. Recuperado de: https://www.refworld.org.es/category,REFERENCE,CERD,,,53f4596b4,0.html
Consejo de Europa. (2017). Lineamientos del Consejo de Europa sobre la Protección de los Individuos con Respecto al Procesamiento de Datos Personales en un Mundo de Grandes Datos. Recuperado de: https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806ebe7a
Cubillo Vélez, Á. (2017). La explotación de los datos personales por los gigantes de internet. Estudios en Derecho a la Información. Instituto de Investigaciones Jurídicas, (3), 27-55. doi: http://dx.doi.org/10.22201/iij.25940082e.2017.3
Datta, A., Sen, S., & Zick, Y. (2017). Algorithmic transparency vía Quantiative Input. En Transparent Data Mining for Big and Small Data (pp. 71-94). Torino, Italia; Cambrige, Reino Unido; y Baltimore, Maryland, Estados Unidos: Springer. doi: https://doi.org/10.1007/978-3-319-54024-5_4
Duchene, S. (2019). Legal Update: The California Consumer Privacy Act: Key Takeaways for Insurers and Insurance Regulators. Illinois: Mayer Brown. Recuperado de: https://www.mayerbrown.com/-/media/files/perspectives-events/publications/2019/05/ccpa-for-the-insurance-industry--key-takeawys-for-carriers-and-regulators.pdf
Escolano Ruiz, F., Cazorla Quevedo, M. A., Alfonso Galipienso, M. I., Colomina Prado, O., & Lozano Ortega, M. A. (2003). Inteligencia artificial. Modelos, técnicas y áreas de aplicación. España: Universidad de Alicante.
Forensic Architecture. (2015). The Bombing of Rafah. Recuperado de: https://forensic-architecture.org/investigation/the-bombing-of-rafah
Forero de Moreno, I. (2009). La Sociedad del Conocimiento. Revista Científica “General José María Córdova”, 5(7), 40-44. Recuperado de: https://www.redalyc.org/pdf/4762/476248849007.pdf
Frith, J. (2017). Big Data, Technical Communication, and the Smart City. Journal of Business and Technical Communication, 31(2), 168-187. doi: https://doi.org/10.1177/1050651916682285
García Mahamut, R., & Virguri Cordero, J. (2019). La protección de los datos personales de los solicitantes de protección internacional en el (nuevo) Sistema Europeo Común de Asilo: grandes desafíos y graves deficiencias. Teoría y Realidad Constitucional, (44), 137-308. doi: https://doi.org/10.5944/trc.44.2019.26002
García Mahamut, R. (2015). Partidos políticos y derecho a la protección de datos en campaña electoral: tensiones y conflictos en el ordenamiento español. Teoría y Realidad Constitucional, (35), 309-338. doi: https://doi.org/10.5944/trc.35.2015.14921
Garriga Domínguez, A. (2016). Nuevos retos para la protección de datos personales. En la Era digital del Big Data y de la computación ubicua. Madrid: Dykinson.
Gil González, E. (2016). Big Data, privacidad y protección de datos. Madrid: Agencia Española de Protección de Datos.
Grün, E. (1999). La globalización del derecho: un fenómeno sistémico y cibernético. Revista Telemática de Filosofía del Derecho, (2), 11-17. Recuperado de: http://www.rtfd.es/numero2/2-2.pdf
Grün, E. (2006). Las globalizaciones jurídicas. Revista Facultad de Derecho y Ciencias Políticas, 36(105), 323-339.
Günther, W. A., Rezazade, M. H., Huysman, M., & Feldberg, F. (2017). Debating big data: A literature review on realizing value form big data. Journal of Strategic Information Systems, 26(3), 191-209. doi: https://doi.org/10.1016/j.jsis.2017.07.003
Herdegen, M. (2005). Derecho Internacional Público. México: Universidad Nacional Autónoma de México, Fundación Konrad Adenauer.
Hoeren, T. (2017). Big data and the legal framework for data quality. International Journal of Law and Information Technology, 25(1), 26-37. doi: https://doi.org/10.1093/ijlit/eaw014
Joyanes Aguilar, L. (2013). Big Data: análisis de grandes volúmenes de datos en organizaciones. México: Alfaomega.
Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data & Society, 1(1), 1-12. doi: https://doi.org/10.1177/2053951714528481
Luna-Nemecio, J. (2019). Geografía crítica, educación popular y socioformación: triple fundamentación para pensar el desarrollo social sostenible. Talento, investigación y socioformación (pp. 443-469). Mount Dora, Estados Unidos: Kresearch. Recuperado de: https://cife.edu.mx/recursos/wp-content/uploads/2019/08/TALENTO-INVESTIGACION-Y-SOCIOFORMACION.pdf
Mantelero, A. (2018). AI and Big Data: A blueprint for a human rights, social and ethical impact assessment. Computer Law & Security Review, 34(4), 754-772. doi: https://doi.org/10.1016/j.clsr.2018.05.017
Maqueo Ramírez, S., Moreno, J., & M. Recio Gayo. (2017). Protección de datos personales, privacidad y vida privada: la inquietante búsqueda de un equilibrio global necesario. Revista de Derecho (Valdivia), 30(1), 77-96. doi: https://doi.org/10.4067/s0718-09502017000100004
Márquez Jiménez, A. (2017). Educación y desarrollo en la sociedad del conocimiento. Perfiles Educativos, 39(158), 3-17. doi: https://doi.org/10.22201/iisue.24486167e.2017.158.58635
Marrero, A. (2007). La sociedad del conocimiento: una revisión teórica de un modelo de desarrollo posible para América Latina. Arxius de Ciènces Socials, (17), 63-73.
Metcalf, J., & Crawford, K. (2016). Where are human subjects in Big Data research? The emerging ethics divide. Big Data & Society, 3(1), 1-14. doi: https://doi.org/10.1177/2053951716650211
Mossbridge, J., Goertzel, B., Mayet, R., Monroe, E., Nejat, G., Hanson, D., & Yu, G. (2018). Emotionally-Sensitive AI-driven Android Interactions Improve Social Welfare Through Helping People Access Self-Trascendent States. 32nd Conference on Neural Information Processing Systems (NIPS). Montreal, Canadá. Recuperado de: https://aiforsocialgood.github.io/2018/pdfs/track1/13_aisg_neurips2018.pdf
Muracciole, B. (2018). El derecho en tiempo de algoritmos. En Jóvenes, transformación digital y formas de inclusión en América Latina (pp. 275-286). Montevideo: Centro de Estudios Fundación Ceibal, Penguin Random House.
Nersessian, D. (2018). The law and ethics of big data analytics: A new role for international human rights in the search for global standards. Business Horizons, 61(6), 845-854. doi: https://doi.org/10.1016/j.bushor.2018.07.006
New Zealand Human Rights Commission. (2018). Privacy, Data and Technology: Human Rights Challenges in the Digital Age. Auckland, Nueva Zelanda: New Zealand Human Rights Commission.
Nicolson, H. (1967). La diplomacia. México D. F.: Fondo de Cultura Económica.
Nouvet, A., & Mégret, F. (2016). Quantitative Methods for Human Rights: From Statistics to “Big Data”. Canadá: McGill University Faculty of Law. doi: https://doi.org/10.2139/ssrn.2801064
Oficina de Información Científica y Tecnológica para el Congreso de la Unión. (2018). Los datos masivos (Big Data), (1). Recuperado de: https://www.foroconsultivo.org.mx/INCyTU/documentos/Completa/INCYTU_16-001.pdf
Oficina del Alto Comisionado para los Derechos Humanos (ACNUDH). (2006). Los principales tratados internacionales de derechos humanos. Nueva York, Ginebra: Naciones Unidas, Nueva York y Ginebra. Recuperado de https://www.ohchr.org/Documents/Publications/CoreTreatiessp.pdf
Oficina del Alto Comisionado de Derechos Humanos (ACNUDH). (2019). Alta Comisionada se dirigió al Consejo de Derechos Humanos en la apertura de su 41° período de sesiones. Recuperado de: https://acnudh.org/alta-comisionada-se-dirigio-al-consejo-de-derechos-humanos-en-la-apertura-de-su-41-periodo-de-sesiones/
Organización de las Naciones Unidas. (s.f.). Macrodatos para el desarrollo sostenible. Recuperado de: https://www.un.org/es/sections/issues-depth/big-data-sustainable-development/index.html
Organización de las Naciones Unidas. (2001). Informe de la Conferencia Mundial contra el Racismo, la Discriminación Racial, la Xenofobia y las Formas Conexas de Intolerancia. Recuperado de: https://undocs.org/es/A/CONF.189/12
Organización de las Naciones Unidas. (2011). Principios rectores sobre las empresas y los derechos humanos. Puesta en práctica del marco de Naciones Unidas para “proteger, respetar y remediar. Nueva York, Ginebra: Oficina del Alto Comisionado para los Derechos Humanos.
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco). (2005). Hacia las sociedades del conocimiento. Recuperado de: http://www.lacult.unesco.org/docc/2005_hacia_las_soc_conocimiento.pdf
Paterson, M., & McDonagh, M. (2018). Data Protection in an era of Big Data: The challenges posed by big personal data. Monash University Law Review, 44(1), 1-31. Recuperado de: https://www.monash.edu/__data/assets/pdf_file/0009/1593630/Paterson-and-McDonagh.pdf
Prado, R. (2018). La socioformación: un enfoque de cambio educativo. Revista Iberoamericana de Educación, 76(1), 57-82. doi: https://doi.org/10.35362/rie7612955
Puerto, M. I., & Sferrazza-Taibi, P. (2017). La sentencia Schrems del Tribunal de Justicia de la Unión Europea: un paso firme en la defensa del derecho a la privacidad en el contexto de la vigilancia masiva transnacional. Revista Derecho del Estado, (40), 1-40. doi: https://doi.org/10.18601/01229893.n40.09
Sánchez Pérez, G., & Rojas González, I. (2012). Leyes de protección de datos personales en el mundo y la protección de datos biométricos - parte I. Revista Seguridad, (13), 4-8. Recuperado de: https://revista.seguridad.unam.mx/numero-13/leyes-de-protecci%C3%B3n-de-datos-personales-en-el-mundo-y-la-protecci%C3%B3n-de-datos-biom%C3%A9tricos-%E2%80%93
Sánchez Rojo, A. (2017). El derecho humano a la privacidad desde el enfoque de las capacidades: una reflexión educativa. EDETANIA, (51), 157-170. Recuperado de: file:///C:/Users/Microsoft/Downloads/Dialnet-ElDerechoHumanoALaPrivacidadDesdeElEnfoqueDeLasCap-6271847.pdf
Sarfaty, G. A. (2018). Can Big Data Revolutionize International Human Rights Law? University of Pennsylvania Journal of International Law, 39(1), 73-101.
Tobón, S. (2018). Conceptual analysis of the socioformation according to the knowledge society. Knowledge Society and Quality of Life (KSQL), 1(1), pp. 9-35. Recuperado de: https://issuu.com/cife/docs/essential_axes_of_knowledge_society
Ureña, R. (2019). Autoridad algorítmica: ¿cómo empezar a pensar la protección de los derechos humanos en la era del “big data”? Latin American Law Review, (2), 99-124. doi: https://doi.org/10.29263/lar02.2019.05
Wasserstrom, R. (1970). Rights, human rights, and racial discrimination. En A. I. Melden (ed.), Human Rights (pp. 96-110). Belmont, California: Wadsworth Publisher.
Wei, J. (2014). How Wearables Intersect with the Cloud and the Internet of Things: Considerations for the Developers of Wearables. IEEE Consumer Electronics Magazine, 3(3), 53-56. doi: 10.1109/MCE.2014.2317895
Xia, F., Yang, L. T., Wang, L., & Vinel, A. (2012). Internet of Things. International Journal of Communication Systems, 25(9), 1101-1102. doi: https://doi.org/10.1002/dac.2417
Recibido: 10/11/2019
Aprobado: 06/04/2020
1 Es un nuevo enfoque educativo que tiene como principal objetivo el llevar a cabo el desarrollo integral de las personas en cada una de las dimensiones de su vida cotidiana, estableciendo como medios para alcanzar dicha meta el proyecto ético de vida y la reflexión constante sobre los diversos problemas de contexto que caracterizan a las tecnologías de la información y la sociedad del conocimiento.
* Doctorante en el Centro Universitario CIFE, México (www.cife.edu.mx). Profesora e investigadora del Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (INFOTEC). Profesora en las facultades de Ciencias Políticas y Sociales de la Universidad Nacional Autónoma de México y de la Universidad Autónoma de Querétaro.
Código ORCID: 0000-0001-6136-6821. Correo electrónico: iustellez@yahoo.fr / evelyn.tellez@infotec.mxr