• 17/12/2024

La inteligencia artificial detecta un tuit abusivo contra mujeres cada 30 segundos

Un estudio define como “problemáticos” los tuits que contienen contenido dañino u hostil en la mayor red social de microblogging
19/12/2018 - 08:38hs
La inteligencia artificial detecta un tuit abusivo contra mujeres cada 30 segundos

Amnistía Internacional recurrió a la inteligencia artificial y el aprendizaje automático para demostrar con datos la violencia de género en Twitter, un campo abierto al abuso y acoso.

La ONG ha hecho público un estudio que demuestra que cada 30 segundos se publica un tuit abusivo, lo que representa el 7,1% del total de las publicaciones que se hacen en twitter en un año.

Para llegar a esta conclusión, Amnistía Internacional se ha unido a Element AI. El estudio, aseguran desde la ONG, es el más grande realizado hasta la fecha sobre el abuso de mujeres en línea. Para realizarlo han contado con la ayuda de 6.500 voluntarios y con el software de aprendizaje automático de Element.

Con esta tecnología han podido analizar los tuits enviados durante 2017 a una muestra de 778 mujeres, la mayoría de ellas del ámbito político y periodistas. De estos tuits, 1,1 millones se han calificado de “problemáticos” o “abusivos”.

Otra de las conclusiones del estudio es que muchas mujeres censuran lo que publican, limitan sus interacciones en Twitter o simplemente abandonan la plataforma por completo.

“En un momento decisivo en el que las mujeres de todo el mundo están usando su poder colectivo para amplificar sus voces a través de las plataformas de redes sociales, el hecho de que Twitter no aplique de manera coherente y transparente sus propios estándares comunitarios para enfrentar la violencia y el abuso significa que las mujeres están siendo empujadas hacia una cultura de silencio”, afirman.

Amnistía Internacional, que ha estado investigando el abuso contra mujeres en Twitter durante los últimos dos años, ha creado lo que llaman “Patrulla Troll” formada por los 6.500 voluntarios inscritos en la campaña.

En total, los voluntarios han analizado 288.000 tweets enviados entre enero y diciembre de 2017 a las 778 mujeres estudiadas, que incluían políticos y periodistas de todo el espectro político del Reino Unido y Estados Unidos.

Estos voluntarios, procedentes de 150 países y con edades comprendidas entre los 18 y los 70 años, fueron formados previamente sobre lo que se considera un tuit problemático o abusivo.

Luego se les mostraron publicaciones anónimas que mencionaban a una de las 778 mujeres y se les preguntó que los valoraran. Cada tuit fue mostrado a varios voluntarios. Además, tres expertos en violencia y abuso contra las mujeres también clasificaron una muestra de 1.000 tuits

El estudio define como “problemáticos” los tuits que contienen contenido dañino u hostil, especialmente si se repite a un individuo en múltiples ocasiones, mientras que “abusivo” son aquellos tuits “que violan las propias reglas de Twitter e incluyen contenido que promueva la violencia contra las personas o amenazas contra ellas según su raza, etnia, origen nacional, orientación sexual, género, identidad de género, afiliación religiosa, edad, discapacidad o enfermedad grave”.

Una vez los voluntarios valoraron los tuits, la información se procesó a través del software de aprendizaje automático de Element AI para extrapolar el análisis al total de 14,5 millones de tweets que mencionaron a las 778 mujeres en 2017.

Esta extrapolación de Element AI llegó a la conclusión que el 7.1% de los tuits enviados a las mujeres fueron problemáticos o abusivos, lo que representa 1,1 millones en 2017.

Las mujeres negras, asiáticas, latinas y de raza mixta tienen, según el estudio, un 34% más probabilidades de ser mencionadas en tuits problemáticos o abusivos que las mujeres blancas.