• 22/11/2024

Facebook Files: todo lo que hay que saber sobre el nuevo escándalo de la red social de Mark Zuckerberg

La empresa de redes sociales más grande del mundo vuelve a demostrar que es ilógico confiar en ella. Por qué es distinto y peor que Cambridge Analytica
26/09/2021 - 09:56hs
Facebook Files: todo lo que hay que saber sobre el nuevo escándalo de la red social de Mark Zuckerberg

El caso Cambridge Analytica, revelado en 2018, pareció prometer un cambio en la percepción de Facebook en particular y las redes sociales en general, y también prometió por parte de la compañía cambios en el tratamiento de los datos para mayor seguridad y respeto hacia sus usuarios.

Ahora sabemos que nada de eso ha cambiado, sino que ha ido peor. Desde el pasado 15 de septiembre el Wall Street Journal ha ido revelando por medio de filtraciones de empleados de Facebook un hilo de reportajes que, más allá de los males de Facebook, demuestran que los conocía y los permitía con alevosía.

Un nuevo conocimiento que puede poner a prueba la confianza que sus 2,9 mil millones de usuarios activos (entre Facebook, Instagram y WhatsApp) depositan en la empresa de Mark Zuckerberg, quien desde 2017 ha ido intentando desligarse de una retahíla de escándalos que no paran de saltar, pero que atendiendo a su cuenta de resultados no parecen afectarle.

Facebook ha tenido tres grandes grupos de escándalos a lo largo de su historia. El acicate de todo fue Cambridge Analytica, donde aprovecharon una de sus vulnerabilidades para fomentar las conexiones y la viralidad para fines políticos. Después están sus continuas filtraciones de datos, las cuales han sido tantas que cualquiera que tenga una cuenta de Facebook antes de 2019 tiene un 50% de posibilidades de haberlas sufrido. Y, por último, su idiosincrasia interna, donde están desde cómo Zuckerberg intentó lastrar a Instagram incluso después de haberla comprado para que no opacara a Facebook, su creación, como estas que ha estado revelando el WSJ o cómo no hizo todo lo que pudo cuando la plataforma fue usada para fomentar el genocidio Rohingya.

Este es un resumen de estas últimas informaciones:

El origen: Alguien en Facebook dio al WSJ una selección de documentos de investigación interna. Un catálogo de todas las formas en que Facebook tiene mucho contenido dañino, lo sabe y no lo controla. Todos nos hacíamos una idea ya de esto, sin embargo, lo que no está tan claro es hasta qué punto estos documentos dan una imagen completa de cómo Facebook los ha ocultado para seguir mejorado las métricas de su red social.

Una y otra vez, los documentos muestran que desde dentro de Facebook han identificado los efectos nocivos de la plataforma. A pesar de las audiencias del Congreso de los Estados Unidos, de sus propias promesas y de las numerosas denuncias de los medios de comunicación, la empresa no los solucionó. Los documentos ofrecen tal vez la imagen más clara hasta ahora de cómo se conocen los problemas de Facebook dentro de la empresa, incluyendo a Mark Zuckerberg.

A ellos se ha sumado una revelación en paralelo por parte de The New York Times en el que se asegura que Facebook ha modificado el algoritmo de su feed de noticias (el muro) para mostrar contenido más amigable ante tantos escándalos. Una forma de vestirse de rosa que ya intentó en el pasado o al menos prometió.

"Facebook Inc. sabe, con todo lujo de detalles, que sus plataformas están plagadas de fallos que causan daños, a menudo de una forma que solo la empresa comprende plenamente", reza la investigación del WSJ, quien ha dividido hasta ahora sus informes en cinco grandes bloques.

La empresa de redes sociales más grande del mundo vuelve a demostrar que es ilógico confiar en ella
La empresa de redes sociales más grande del mundo vuelve a demostrar que es ilógico confiar en ella

Ciertos usuarios de Facebook no se someten a sus reglas

La primera dosis de estas informaciones revela con papeles internos que, en privado, la empresa ha creado un sistema que ha eximido a los usuarios de alto perfil de algunas o todas sus normas. Como si hubiera una especie de usuarios VIP que están por encima de sus normas y el código ético.

El programa, conocido como "cross check" o "XCheck", fue concebido como una medida de control de calidad para las cuentas de alto perfil. Hoy en día, protege a millones de VIPs, según muestran los documentos. Muchos abusan de este privilegio, publicando material que incluye acoso e incitación a la violencia, lo que normalmente daría lugar a sanciones. Facebook dice en sus respuestas, expuestas en un comunicado -firmado por Nick Clegg, el ex viceprimer ministro del Reino Unido que Zuckerberg fichó específicamente para lidiar con los escándalos- que las críticas al programa son justas, que fue diseñado con un buen propósito y que la empresa está trabajando para solucionarlo.

Facebook sabe que Instagram es tóxico, especialmente entre adolescentes

El siguiente bloque de revelaciones muestra que dentro de Instagram han estado estudiando durante años cómo su aplicación para compartir fotos afecta a millones de usuarios jóvenes. En repetidas ocasiones, la empresa ha descubierto que Instagram es perjudicial para un porcentaje considerable de ellos, sobre todo para las adolescentes.

En público, Facebook ha restado importancia a los efectos negativos de la aplicación, y no ha hecho pública su investigación ni la ha puesto a disposición de académicos o legisladores que la han solicitado. En respuesta, Facebook dice que los efectos negativos no son generalizados, que la investigación sobre salud mental es valiosa y que algunos de los aspectos perjudiciales no son fáciles de abordar.

Cuando Facebook intentó echar a los medios y le salió una red social aún más iracunda

Esto es algo que cualquiera que haya seguido la evolución de la plataforma se ha dado cuenta. Facebook pasó en 2018 de ser una especie de lo que ahora es TikTok donde la gente compartía gatos y noticias en vídeo a anunciar un cambio en su algoritmo para primar los comentarios de personas cercanas que acabó formando la cámara de eco tan estudiada por los sociólogos que la vuelve tan peligrosas. En pocas palabras: lo que piensas y opinas, Facebook te lo devuelve, creando un enjambre que potencia posturas peligrosas.

Zuckerberg declaró en ese momento que su objetivo era fortalecer los vínculos entre los usuarios y mejorar su bienestar fomentando las interacciones entre amigos y familiares. Dentro de la empresa, los documentos muestran que los empleados advirtieron que el cambio estaba teniendo el efecto contrario. Estaba haciendo que Facebook, y los que lo utilizaban, se enfadaran más. Zuckerberg se resistió a algunas correcciones propuestas por su equipo, según los documentos, porque le preocupaba que la gente interactuara menos en Facebook.

Los cárteles y grupos armados también se aprovecharon de Facebook y la red apenas hizo nada

Las decenas de documentos de Facebook también muestran a los empleados dando la voz de alarma sobre el uso de la plataformas en los países en desarrollo, donde su base de usuarios es enorme y está en expansión. Los empleados señalaron que los traficantes de personas en Oriente Medio utilizaban el sitio para atraer a las mujeres a situaciones laborales abusivas que a veces parecían estar relacionadas con la explotación sexual. Advirtieron que grupos armados de Etiopía utilizaban el sitio para incitar a la violencia contra las minorías étnicas, en una situación que parece ser similar al escándalo que ya afectó a Facebook en la masacre de los Rohingya.

Según los documentos, algunos trabajadores enviaron alertas a sus jefes sobre mensajes de venta de órganos o pornografía. También muestran la respuesta de la empresa, que en muchos casos es inadecuada o nula.

Facebook intentó usar su plataforma para el bien ante la COVID, pero su propio monstruo se volvió contra él

La última revelación tiene hasta cierto toque del karma actuando. Facebook apoyó la promoción de la vacunación contra la COVID-19, en una apuesta personal de Zuckerberg para intentar hacer valer que su creación es una fuerza para el bien social poderosa. Pero aquello salió mal.

Informes internos muestran cómo desde el interior de la empresa volvió a saltar la alarma porque el colectivo negacionista usó las propias herramientas dispuestas por Facebook para expandir su mensaje. Los activistas inundaron la red con lo que Facebook llama contenido de "oposición a la vacunación", según muestran los memorandos internos.

Mark Zuckerberg, CEO de Facebook
Mark Zuckerberg, CEO de Facebook

Otra gota más en un vaso de agua que no se colma

Ninguna de estas revelaciones es en sí misma algo conocido: todos los que han investigado sobre Facebook y sus algoritmos son conscientes de los daños que puede causar y ha causado a lo largo del tiempo, y la propia Facebook ha dicho una y otra vez que se pondría en marcha para solucionarlo.

Lo único cierto es que por ahora Facebook no ha dejado de crecer. En sus últimos resultados trimestrales obtuvo ingresos por 29.000 millones de dólares, lo que se traduce en un crecimiento interanual del 56%. De momento, la red social parece no haberse visto afectada en su historia ni por estos escándalos ni por los cambios de privacidad impulsados por Apple en iOS que limitarían la efectividad de sus anuncios