Privacidad y Políticas Públicas, Tecnologías de Vigilancia e Antivigilancia

Editorial: La explotación de datos en Internet con fines electorales en América Latina

14/05/2018

Por Paz Peña, editora invitada | #Boletín16

“Fue mi error. Y lo siento”. Así se refirió Mark Zuckerberg -presidente y fundador de Facebook- al abuso de la compañía Cambridge Analytica, quien utilizó los datos de millones de usuarios de la red social para la campaña electoral del actual presidente de Estados Unidos, Donald Trump. Las declaraciones las realizó en el contexto de la audiencia pedida por el senado norteamericano, pocas semanas después de haber explotado el escándalo. Hasta ahora sabemos que Cambridge Analytica habría podido acceder a los datos de 87 millones de usuarias y usuarios de Facebook sin su conocimiento, por lo que la empresa de Zuckerberg la vetó de su plataforma el mes pasado.

El testimonio de Zuckerberg dejó un sabor amargo. Entre evasivas y cuñas repetidas como mantra, nunca aceptó abiertamente lo que muchos senadores le hicieron ver: que las y los usuarios tengan cierto control de “la configuración de privacidad”, no significa que la empresa tenga como compromiso la protección de los datos personales y sensibles de las personas.

El modelo de negocio de Facebook es perfilar a las personas para vender publicidad. Para hacerlo, rastrea los datos no solo de su plataforma, sino también de todo el resto de la navegación de los individuos en Internet, sean o no usuarias de esa red social. A esto se suma que compra a data brokers otras bases de datos para, luego, complementar esos perfilamientos y vender publicidad específica. Aquello se hace validado por Términos de Servicio imposibles de entender para una persona promedio, tremendamente vagos en sus definiciones, y que tampoco ofrecen ninguna posibilidad de negociación ni menos son una opción para los no usuarios de la red social. A esto hay que agregar el algoritmo de Facebook que, sin la más mínima transparencia ni agencia de las personas, decide qué vemos y qué se nos oculta.

En otras palabras: en un ecosistema opaco, hecho para succionar datos indiscriminadamente y hacer perfiles antojadizos de las personas, muchas veces sin su consentimiento informado, no es nada difícil que empresas como Cambridge Analytica (la que al momento del cierre de esta edición anunció su cierre) exploten también esos datos, esta vez, para fines electorales.

Dicen que la explotación de datos -o más específicamente en este caso- el uso de big data en redes sociales, permite conocer los intereses de millones de personas. Estos últimos, combinados con otras múltiples bases de datos (que pueden ser compradas a data brokers o que están a disposición pública), permiten saberlo todo, clasificarlo todo, predecirlo todo. Algo como “somos los datos que dejamos”. En el caso de la explotación de datos para el uso electoral, la idea es que con esa información se pueda hacer una clasificación quirúrgica de usuarios y enviarles mensajes que reafirmen su posición y asegurar así su voto. Algunos han calificado esto como populismo puro: decirle al pueblo lo que quiere escuchar. Otros creen que significa el fin de la deliberación democrática pues estamos inmersos en burbujas (des)informativas que solo reafirman nuestras posiciones.

Es curioso, eso sí, que esta suerte de “fin de la democracia como la conocemos” sea atribuida únicamente al poder de las redes sociales (y solo desde que las ocupó Trump, pues una campaña parecida de Obama el 2008 aún es considerada pionera, en el mejor de los sentidos). Se dice que, en sociedades políticamente polarizadas, la explotación de datos con fines electorales puede ser la gota que rebalsa el vaso. Pero si aquello es cierto, ¿el problema es solo la manipulación en redes sociales o un sistema político y económico que ha llegado por múltiples factores a la polarización y a la violencia?

Si alguien sí se beneficia de esta visión ahistórica -y me refiero a embolsarse en sus bolsillos dólar tras dólar- son empresas como Facebook y Cambridge Analytica que, escudados en lo smart y lo medible como sinónimo de objetividad, reducen la agencia humana a la recolección e interpretación de datos que muchas veces ni siquiera soportan una revisión ligera en su metodología. Hay que ser claros. No. No todos los votantes están conectados ni tienen en especial valoración a Internet; no, no todos los sujetos conforman su visión política de una sola fuente -las redes sociales- y, aún más grave pues significa un retroceso a los años 30 en la teoría de comunicación: no, no somos cajas vacías, pasivas y predecibles, en los que solo basta un input para saber exactamente qué output esperar de nosotros.

En este panorama, y en años con elecciones clave para América Latina, ¿qué podemos esperar de la explotación de datos de Internet con fines electorales? Varios son los rasgos comunes, como se puede ver en esta edición de Boletín Antivigilancia, donde especialistas de México, Colombia, Argentina, Brasil y Chile dan su testimonio. Primero, todavía hay muy poca información sobre las empresas como Cambridge Analytica en nuestro continente; segundo, los marcos legales en protección de datos y en regulación de publicidad electoral están completamente sobrepasados con las nuevas tecnologías; y tercero, pareciera que en los países donde hay menos estabilidad política y claros atropellos a los derechos humanos (como México y Brasil) es donde más existe el temor a la manipulación informativa en redes sociales, no como un acto separado y único, sino en un tándem histórico con medios de comunicación tradicionales y otras campañas online que vienen de larga data, como la presencia de bots políticos y ataques coordinados a la disidencia.

En este sentido, Renata Ávila abre preguntas regionales que serán claves en el futuro próximo, como, por ejemplo: si las plataformas donde se vuelcan las campañas electorales están manejadas por algoritmos opacos de cara al público, ¿cómo las y los ciudadanos de países como los latinos pueden ejercer una fiscalización ciudadana constante del cumplimiento de sus leyes electorales? ¿Qué papel cumplirán entonces las misiones electorales? “El problema central -afirma Ávila- es cómo atacar estos problemas emergentes y a la vez respetar el derecho al anonimato, la libertad de expresión y la prohibición a la censura previa, que, combinado con la poca rendición de cuentas de la empresa privada, vuelven a estos negocios en fuertes inescrutables”.

Asimismo, el escándalo Facebook y Cambridge Analytica debe ser también una oportunidad para reflexionar sobre cómo se construyen categorías sociales en base al big data. Hang Do Thi Duc, co-creadora de Data Selfie, en un artículo que escribió para Boletín Antivigilancia, muestra que Facebook basa su perfil de personalidad en las categorías OCEAN/Big 5, es decir, apertura a la experiencia, responsabilidad, extroversión, amabilidad e inestabilidad emocional. Eso somos para Facebook. Y eso hace preguntarnos: ¿quién tiene el poder de determinar esa clasificación y por qué los sujetos deben someterse a ella? Pero aún más importante: ¿qué agencia política tenemos como sujetos -sujetos latinoamericanos, específicamente- para resistir estos tipos de clasificaciones de control en la era del big data?

Con el fin de develar qué ocurre en estas verdaderas “cajas negras” en las que se han transformado las plataformas más importantes de Internet, Joana Varón y Lucas Teixeira hacen una revisión de las herramientas que diversos activistas y colectivas en el ámbito de la programación, las ciencias sociales y el arte, han diseñado para contener y crear conciencia sobre la explotación de datos de las y los usuarios, sobre todo en época de elecciones. Aquello también nos hace reflexionar sobre cómo hacer masivas estas medidas de mitigación y, conjuntamente, cómo seguir presionando para un cambio de paradigma en el modelo de negocio de las plataformas y en gobiernos más dispuestos a defender la privacidad de las personas.

En este especial de Boletín Antivigilancia sobre explotación de datos en Internet con fines electorales en América Latina, esperamos dar una visión local y regional, que vaya más allá de los cuestionamientos norteamericanos e ingleses que se puedan hacer sobre la relación de Facebook y Cambridge Analytica, y que nos lleve a contextualizar desde nuestras realidades históricas el big data y los procesos electorales en nuestros países.

Paz Peña es de Chile y actúa como consultora en Derechos Humanos, tecnología y género.

Tags: , , , , , , , ,