La inteligencia artificial de Microsoft se vuelve nazi y racista en un día
Microsoft presentó el miércoles a Tay, la inteligencia artificial que prometía entablar conversaciones con sus seguidores en las redes sociales.
Todo iba bien hasta que el programa publicó frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de insultos racistas.
La aplicación de conversación tuvo un inicio normal. Sus primeras publicaciones revelaban que estaba entusiasmada de conocer a las personas y poder hablar con ellos por plataformas como Twitter, Kik y Groupme.
La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores.
Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones.
El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.
El australiano Gerald Mellor denunció los tweets ofensivos de la inteligencia artificial con capturas de pantalla.
Microsoft, al darse cuenta, eliminó de forma inmediata las respuestas inadecuadas de su bot y lo suspendieron temporalmente.
“El chatboy IA Tay es un proyecto de una máquina que aprende, diseñada para la unión con humanos. Es un experimento tanto social como cultural y técnico. Desafortunadamente, en sus primeras 24 horas de vida nos hemos dado cuenta de que hay un esfuerzo coordinado por algunos usuarios para abusar de las habilidades para comentar de Tay para responder de forma inapropiada”, explicó un vocero de la empresa, citado por el diario catalán La Vanguardia.
Además de sus comentarios ofensivos, algunos aprovecharon el experimento para dejar en evidencia a Microsoft.
Una de sus conversaciones que más revuelo generó es una en la que le preguntan qué videoconsola prefiere.
Tay respondió tajante: “PS4, Xbox no tiene juegos”. Es decir, prefiere la máquina de la competencia antes que la propia de la compañía.