Tecnologías de Vigilancia e Antivigilancia

¿Podemos vigilar a los vigilantes?

14/05/2018

Por Joana Varon y Lucas Teixeira | #Boletín16
y Lucas Teixeira y Joana Varon

Varios reportajes que analizan el escándalo de Cambridge Analytica y una serie de artículos en este boletín ya dejaron claro que la empresa no es más que un actor secundario en un problema mucho más complejo: el modelo de negocio de las principales redes sociales que utilizamos hoy en día.

Aun cuando Facebook llegue a restringir fuertemente el uso de los datos personales por parte de las aplicaciones que utilizan la plataforma (algo que no parece ir más allá de algunas medidas superficiales), la esencia del funcionamiento de esa y de otras redes sociales continúa siendo la misma: monitorear lo máximo posible todo lo que hacemos por ahí (en realidad, por toda la web) y usar esos datos para componer perfiles en los que pueda encajar toda la diversidad humana de manera clasificada. Entonces, esos perfiles pasan a ser monetizables. La venta de anuncios dirigidos o la priorización de posts patrocinados, teóricamente, de acuerdo con nuestros intereses, es la principal forma como se produce esa monetización en la actualidad.

Por otro lado, también se sabe que las propias plataformas experimentaron con nuestros datos para moldear sus algoritmos. Ese es el caso, por ejemplo, del experimento de Facebook que utiliza nuestra información de reacción a los posts, es decir, la variedad de caritas que elegimos para reaccionar a una publicación, para tratar de manipular nuestras emociones. El estudio consistía en priorizar posts en nuestra timeline de acuerdo con la información de humor que dejamos como rastro en nuestras interacciones con la plataforma. Y la conclusión fue que, con eso, eran capaces de hacer que las personas se “sintieran” tristes o felices.

Por otra parte, observamos también que ese sistema de interacciones sociales basado en “me gusta” y posts compartidos instigó la creación de tácticas ingeniosas, que usan trabajo manual repetitivo o incluso formas automatizadas para intentar influenciar la priorización de posts establecida por el algoritmo. De ahí se pasó a la ampliación del uso de bots, el establecimiento de los Netcenters y también la producción de titulares y noticias llamativas, que llegan incluso a promover la desinformación para llamar la atención.

El hecho es que, mientras saben cada vez más sobre nosotros y determinan “quiénes somos”, nosotros no sabemos casi nada sobre cómo están influenciando nuestro consumo de noticias y otras informaciones. Sin una metodología transparente de cómo se toman las decisiones, muchas veces páginas de contenido político sensible e importante son enterradas debajo de posts patrocinados o “inflados” por tácticas oscuras. O, simplemente, posts que fueron priorizados por el algoritmo que trazó quién eres y te puso en el llamado “filtro burbuja”, que nos aliena de todo para recibir noticias y posts que reafirman nuestras convicciones. Este fenómeno es señalado por algunos como una de las razones por las que, en todo el mundo, la polarización viene aumentando.

La recolección masiva de datos personales sin que se tenga una dimensión de cuáles y de cuántos datos se trata, el encuadramiento involuntario de nuestro “yo” en perfiles publicitarios que ni imaginamos; la manipulación de la información que se nos presenta o de la priorización de lo que no se nos informa son algunos aspectos importantes que componen la caja negra del ambiente digital donde comenzaron a circular las campañas electorales.

Tomando en cuenta que es necesario revelar cómo funcionan esas cajas negras, varios grupos de investigadorxs, colectivxs, activistas y desarrolladores de todo el mundo crearon herramientas que permiten una mayor transparencia con respecto a esas prácticas de formación de perfiles, publicidad dirigida, priorización de posts, detección de bots e incluso el uso compartido de nuestros datos. Teniendo en mente esa clasificación, a continuación enumeramos algunas herramientas:

1. Herramientas para una mayor transparencia en la formación de perfiles y publicidad dirigida:

a) Exposición del proceso de creación de perfiles y estereotipos

Data Selfie

En lugar de intentar conducir estudios sobre el algoritmo de Facebook o proteger tus datos de la empresa, Data Selfie busca mostrarte el potencial de agregación y análisis de datos que proporciona tu uso diario de Facebook. En esta edición, una de las creadoras de la extensión cuenta más detalles.

Qué piensa Facebook que te gusta

“Qué piensa Facebook que te gusta” es una extensión para el navegador Chrome desarrollada por ProPublica para recopilar información sobre las categorías en las que Facebook nos encuadra para la recepción de anuncios. Quien baja la herramienta puede dar una nota sobre hasta qué punto considera que esa clasificación es precisa.

b) Monitoreo de publicidad dirigida

ProPublica Political Ad Collector

En septiembre de 2017, la agencia de noticias ProPublica lanzó una extensión para navegador llamada Facebook Political Ad Collector (“Recolector de propagandas políticas en Facebook”) que permite compartir con la agencia, de forma desvinculada de tu identidad, las propagandas que aparecen en tu timeline de Facebook. Existe un proceso de identificación de cuáles de estas propagandas son políticas, y el resultado final se agrega a una base de datos para realizar estudios sobre estas propagandas, usados​por la agencia y por un grupo de asociados, como la alemana Der Spiegel, The Guardian australiana, Openpolis en Italia y otras. Puede instalarse en los navegadores Firefox y Chrome.

Who Targets Me

Inmediatamente después de que se anunciaran las elecciones generales del Reino Unido de 2017, Sam Jeffers y Louis Knight-Webb iniciaron en Londres el proyecto Who Targets Me (“De quién soy blanco”), que busca aportar mayor transparencia con respecto al uso de la propaganda en los medios digitales, en especial en Facebook.

Actualmente, ellos junto a un grupo de investigadores, periodistas y académicos están trabajando para desarrollar una extensión para navegador (Firefox y Chrome) que recoge datos sobre los anuncios dirigidos. Después de algún tiempo usando la extensión es posible analizar esa información para revelar cómo se construyen los perfiles psicológicos de las personas en la plataforma y cómo diferentes tipos de piezas publicitarias se dirigen de acuerdo con ellos y otra información personal compartida, voluntariamente o no, con Facebook.

c) Monitoreo de la priorización del algoritmo

Facebook.tracking.exposed

Cuando pasas por tu timeline de Facebook, los posts que aparecen no se eligen de forma aleatoria o en el orden cronológico en el que aparecen. Un proceso complejo de toma de decisiones determina lo que vas a ver a continuación, y se sabe que tiene en cuenta la promoción de otros posts y el perfil que la empresa tiene sobre ti. El funcionamiento exacto de ese algoritmo es desconocido.

Facebook.tracking.exposed es un proyecto que busca “observar, evaluar y conocer mejor el algoritmo de Facebook, en particular cómo el FB potencializa y obtiene beneficios a partir de contenidos promovidos”, para permitir una mejor comprensión de cómo funciona la empresa en el mercado a través de estas promociones y posibilitar que los investigadores puedan analizar cómo Facebook posiciona los diferentes posts que se te muestran.

Al instalar la extensión en el Firefox o el Chrome, el navegador empieza a enviar a facebook.tracking.exposed información sobre los posts que aparecen en tu timeline (desvinculada de tu identidad y solo de los posts públicos). Estos datos se agregan en una gran base de datos preciosos para hacer una “ingeniería inversa” de cómo se realiza el posicionamiento de las noticias. Además, al usar la extensión por algún tiempo puedes acceder a tu “dieta de informaciones”, que muestra qué autores y contenidos ocupan más tu atención mientras la timeline se desplaza, además de permitir el acceso a los datos brutos para hacer un análisis personalizado de la información proporcionada por la herramienta.

d) Detección de bots y perfiles “falsos” en las redes

Con toda la conmoción con respecto a la promoción de desinformación en la red, no dejan de surgir distintas metodologías y herramientas y para detectar bots en las redes sociales. En Brasil, por ejemplo, los investigadores del Departamento de Ciencias de la Computación de la Universidad Federal de Minas Gerais lanzaron el proyecto “Elecciones sin fake”. El sitio web del proyecto ofrece una serie de plugins que van desde el monitoreo de publicidad dirigida, a un sistema que comprueba si las hashtags que entran a los trending topics son promovidas por bots o humanos. El proyecto también aporta algunas herramientas para auxiliar en procesos de verificación de información.

2. Protección de datos

Mozilla container

Mozilla creó una extensión para el navegador Firefox que aísla tu identidad registrada en Facebook en un “contenedor” que no permite que los scripts de la compañía accedan a los datos de otras pestañas abiertas en el navegador. Así, la red se ve impedida de saber por qué sitios web navegas a través de las llamadas “cookies de terceros”. Esto te permite seguir utilizando la red en el mismo navegador sin que se monitoree el resto de tu vida en la web.

Privacy Badger

La extensión Privacy Badger tiene el objetivo de impedir, más allá de las redes sociales, el monitoreo en línea realizado por los diversos “trackers” a través de scripts cargados casi en todas las página que visitas.

En lugar de bloquear todos los scripts, que es una solución, pero deja los sitios desformateados, disfuncionales o completamente inutilizables, tiene embutida una inteligencia capaz de entender qué scripts (o partes de ellos) se utilizan para el monitoreo (y no, digamos, para hacer la página dinámica o hacer una animación cuando se hace clic en un botón) y hace un “bloqueo quirúrgico” solo del código utilizado para revisar tu historial.

Privacy Badger se puede instalar en los navegadores Firefox, Chrome y Opera.

Estas son solo algunas herramientas que mapeamos en el intento de ilustrar formas como desarrolladorxs e investigadorxs están trabajando para intentar vigilar a quien nos vigila. Podríamos mencionar muchos otros ejemplos, algunos de ellos incluso pueden considerarse como esfuerzos duplicados. Por lo tanto, cabe destacar que, además de descargar y probar algunas de estas herramientas, y, de esa forma, proporcionar datos para los investigadores que están tratando de descifrar las cajas negras de las redes sociales, es necesario también que haya más articulación entre todxs los que están desarrollando y analizando los datos recolectados. La mayoría de esas herramientas tienen su divulgación limitada a determinados contextos, mientras que la cantidad de datos necesarios para un mapeo representativo depende de que sean usadas por un gran número de personas. En ese sentido, el uso de tecnologías y metodologías compartidas ampliaría la capacidad de diagnosticar las prácticas de las empresas propietarias de las grandes redes sociales y también permitiría dimensionar mejor el impacto de dichas redes en nuestras democracias.

Joana Varon, de Brasil, actúa como directora ejecutiva de Coding Rights. Lucas Teixeira, también de Brasil, actúa como director de tecnología de Coding Rights.

Tags: , , , , , , , , , , , , ,