Un estudio muestra cómo Facebook y Google empujan a los usuarios hacia una menor privacidad
Un estudio demuestra que Facebook y Google manipulan a sus usuarios para que acepten opciones que afectan negativamente a su privacidad.
Según este informe, realizado por el Consejo de Consumidores de Noruega, estas compañías distraen con opciones poco claras que acaban empujando a sus usuarios a aceptar que se comparta su información personal.
El estudio se ha realizado a raíz de la aplicación del nuevo Reglamento General de Protección de Datos (GDPR). La ley obliga a las empresas a explicitar las diferentes opciones sobre el uso de datos personales y a conseguir el consentimiento inequívoco de los usuarios .
Este es el caso de muchas redes sociales y plataformas gratuitas, como Facebook. Las conclusiones del informe demuestran que estas compañías se han apresurado a demostrar que cumplen con la GDPR y han lanzado nuevas opciones a sus usuarios para crearles una falsa ilusión de control sobre sus datos y su privacidad.
La realidad es que la mayoría de estas opciones lo que hacen es confundir al internauta con opciones escondidas e incómodas y empujarlo a aceptar condiciones que limitan su control sobre sus propios datos.
Los autores del estudio han analizado las ventanas emergentes de privacidad que aparecieron durante mayo en las páginas de Facebook, Google y Microsoft. Y los resultados son especialmente dramáticos para las dos primeras.
Así descubrieron que en el caso de Facebook y Google se utilizan "patrones oscuros, técnicas y características de diseño de interfaz para manipular a los usuarios... utilizados para empujar a los usuarios hacia opciones intrusivas de su privacidad".
Estos "patrones oscuros" se basan en métodos sutiles pero efectivos, a través del diseño de estos cuadros emergentes, de guiar a las personas para que elijan el resultado que beneficia a la empresa.
Por ejemplo, en el proceso de configuración de privacidad de Facebook y Google, las opciones de mayor privacidad aparecen desactivadas de forma predeterminada, por lo que la mayoría de los usuarios ya no son conscientes que existen estas opciones.
En caso que alguien quiera activar estas opciones, se encontrará con un proceso pesado y largo, que le obligará a tener que hacer hasta 13 clics para aceptarlo.
Pero es que además, según desvela el estudio, Facebook habría mostrado falsas notificaciones que aparecían justo detrás de la ventana emergente de privacidad, para distraer la atención de los usuarios haciéndoles creer que tenían mensajes, cuando no siempre era cierto.
Otro ejemplo que pone el estudio expone la estrategia para que el usuario acepte el reconocimiento facial. Así, si alguien pretendía desactivar esta opción, el sistema le enviaba un mensajes del tipo "no podremos usar esta tecnología si un extraño usa su foto para hacerse pasar por usted", para asustar y empujar a aceptarlo.
Sin embargo, en este mismo caso no se advierte que Facebook podría usar su imagen para la orientación publicitaria o la coincidencia automática en las fotos tomadas por otros.
También resultan confusas las opciones para deshabilitar los anuncios personalizados en Google. El sistema avisa que si se deshabilita la opción, algunos anuncios no se podrán silenciar en el futuro.
Esto no queda claro para el usuario, que interpreta que le puedan saltar anuncios con audio estando en el trabajo u otro sitio comprometido. Para evitarlo, el usuario acaba aceptando la opción propuesta inicialmente, mucho menos protectora de su privacidad.
En definitiva, el informe alerta que aquellos usuarios que quieren proteger sus datos son los más perjudicados por estas nuevas opciones de presunta privacidad.
Se crea una falsa sensación de control sobre la información que compartimos, pero resulta que esos controles están deliberadamente diseñados para socavar el control real sobre nuestros datos.