• 25/12/2024

Un estudio muestra cómo Facebook y Google empujan a los usuarios hacia una menor privacidad

Descubrieron que las dos empresas utilizan patrones oscuros, técnicas y características de diseño de interfaz para manipular a los usuarios
28/06/2018 - 08:16hs

Un estudio demuestra que Facebook y Google manipulan a sus usuarios para que acepten opciones que afectan negativamente a su privacidad.

Según este informe, realizado por el Consejo de Consumidores de Noruega, estas compañí­as distraen con opciones poco claras que acaban empujando a sus usuarios a aceptar que se comparta su información personal.

El estudio se ha realizado a raí­z de la aplicación del nuevo Reglamento General de Protección de Datos (GDPR). La ley obliga a las empresas a explicitar las diferentes opciones sobre el uso de datos personales y a conseguir el consentimiento inequí­voco de los usuarios .

Este es el caso de muchas redes sociales y plataformas gratuitas, como Facebook. Las conclusiones del informe demuestran que estas compañí­as se han apresurado a demostrar que cumplen con la GDPR y han lanzado nuevas opciones a sus usuarios para crearles una falsa ilusión de control sobre sus datos y su privacidad.

La realidad es que la mayorí­a de estas opciones lo que hacen es confundir al internauta con opciones escondidas e incómodas y empujarlo a aceptar condiciones que limitan su control sobre sus propios datos.

Los autores del estudio han analizado las ventanas emergentes de privacidad que aparecieron durante mayo en las páginas de Facebook, Google y Microsoft. Y los resultados son especialmente dramáticos para las dos primeras.

Así­ descubrieron que en el caso de Facebook y Google se utilizan "patrones oscuros, técnicas y caracterí­sticas de diseño de interfaz para manipular a los usuarios... utilizados para empujar a los usuarios hacia opciones intrusivas de su privacidad".

Estos "patrones oscuros" se basan en métodos sutiles pero efectivos, a través del diseño de estos cuadros emergentes, de guiar a las personas para que elijan el resultado que beneficia a la empresa.

Por ejemplo, en el proceso de configuración de privacidad de Facebook y Google, las opciones de mayor privacidad aparecen desactivadas de forma predeterminada, por lo que la mayorí­a de los usuarios ya no son conscientes que existen estas opciones.

En caso que alguien quiera activar estas opciones, se encontrará con un proceso pesado y largo, que le obligará a tener que hacer hasta 13 clics para aceptarlo.

Pero es que además, según desvela el estudio, Facebook habrí­a mostrado falsas notificaciones que aparecí­an justo detrás de la ventana emergente de privacidad, para distraer la atención de los usuarios haciéndoles creer que tení­an mensajes, cuando no siempre era cierto.

Otro ejemplo que pone el estudio expone la estrategia para que el usuario acepte el reconocimiento facial. Así­, si alguien pretendí­a desactivar esta opción, el sistema le enviaba un mensajes del tipo "no podremos usar esta tecnologí­a si un extraño usa su foto para hacerse pasar por usted", para asustar y empujar a aceptarlo.

Sin embargo, en este mismo caso no se advierte que Facebook podrí­a usar su imagen para la orientación publicitaria o la coincidencia automática en las fotos tomadas por otros.

También resultan confusas las opciones para deshabilitar los anuncios personalizados en Google. El sistema avisa que si se deshabilita la opción, algunos anuncios no se podrán silenciar en el futuro.

Esto no queda claro para el usuario, que interpreta que le puedan saltar anuncios con audio estando en el trabajo u otro sitio comprometido. Para evitarlo, el usuario acaba aceptando la opción propuesta inicialmente, mucho menos protectora de su privacidad.

En definitiva, el informe alerta que aquellos usuarios que quieren proteger sus datos son los más perjudicados por estas nuevas opciones de presunta privacidad.

Se crea una falsa sensación de control sobre la información que compartimos, pero resulta que esos controles están deliberadamente diseñados para socavar el control real sobre nuestros datos.