Microsoft lanza una herramienta para combatir el abuso infantil en línea
El equipo de Microsoft desarrolló un sistema automatizado que puede detectar abusadores sexuales en salas de chat. Project Artemis es el nombre de esta técnica que comenzó a desarrollarse en 2018 en un Hackathon de la empresa con el fin de crear herramientas para combatir el grooming. Y luego contó con un grupo de colaboradores como Roblox, The Meet Group, Thorn y Kik.
Este sistema se utiliza para analizar las conversaciones de texto de chat, y según las características de la interacción se le asigna una calificación. Esta calificación preliminar puede servir como base para filtrar chats con determinadas características que los convierten en potenciales amenazas. Por ejemplo, analiza los patrones típicos utilizados por depredadores sexuales, buscando frases o palabras clave.
Estos son remitidos a moderadores humanos calificados para identificar rasgos de acoso sexual tras una revisión profunda y remitir la información a las asociaciones correspondientes. O puede que los moderadores consideren que aunque no puede ser calificado como una amenaza real, no cumple con las políticas de la plataforma.
Esta dinámica puede funcionar con cualquier plataforma web que ofrezca función de chat, no necesitan ser exclusivamente salas de chat. El equipo de Microsoft menciona que ha utilizado esta técnica en algunos de sus servicios, como Xbox y Skype.
Esta herramienta es gratuita y estará disponible para cualquier compañía que ofrezca servicios online con chat integrado. Thron será la encargada de proveer a las empresas interesadas la información para implementar este sistema.