ChatGPT ya se usa para escribir código malicioso y crear "deepfakes"
Desde los grupos de Facebook hasta los foros de Reddit, los usuarios debaten con la capacidad de la inteligencia artificial para crear contenidos como libros infantiles e imágenes ridículas con unas pocas líneas de orientación humana. Pero esta tecnología esconde un trasfondo oscuro.
A finales de diciembre, varios usuarios publicaron en el foro de "hacking" BreachForums cómo utilizaron ChatGPT, el chatbot de inteligencia atificial conversacional de OpenAI que puede generar desde historias hasta, en este caso, código, para crear un programa maligno, software diseñado para robar datos o dañar computadoras y celulares.
"Deepfakes" generados por inteligencia artificial de personas famosas desnudas y pornografía creados mediante la generadora de imágenes de la empresa inicial Stability AI inundaron los hilos del foro de debate 4chan.
Cuando los reporteros del medio Futurism proporcionaron al generador de arte Dall-E Mini las consignas "chica lista" y "buena persona", la inteligencia artificial produjo una serie de rostros, todos ellos de piel clara.
A pesar de estas preocupaciones sobre actores que utilizan la inteligencia artificial generativa con fines perjudiciales, las valoraciones y el bombo publicitario en torno a este ámbito parecen estar explotando sin fin a la vista, lo que deriva en la pregunta siguiente: ¿quién es responsable de vigilar esta nueva tecnología?
Algunas empresas iniciales aseguraron garantizar que sus productos no se utilicen para fines indebidos. En 2020, Resemble AI, una empresa que puede generar voces utilizando inteligencia artificial, lanzó Resemblyzer, un paquete de código abierto que puede verificar a los hablantes y detectar habla falsa. El fundador y director general ejecutivo de Resemble AI, Zohaib Ahmed, dijo que la herramienta ya se utilizó más de 2.000 veces.
Chequeo de audios
"Cuando tomas una revista, no acabas de creerte sus fotos", explicó Ahmed. "En cierto modo sabes qué ha sido retocado o manipulado. La gente debería aprender a tratar el audio o las artes visuales como trata las fotos de las revistas", advirtió.
Con Resemblyzer, un modelo de inteligencia artificial analiza un fragmento de audio y asigna a la voz una determinada firma formada por cientos de números basados en características identificativas como el tono y la velocidad. A continuación, el modelo compara otras muestras de audio con la firma para determinar si proceden del mismo locutor.
La propia Resemble AI utiliza Resemblyzer en forma interna para confirmar que los archivos de audio de muestra que los usuarios cargan para crear una voz generada por inteligencia artificial coinciden con la grabación de consentimiento cargada y dan permiso para utilizar los archivos.
Para otros, como el cofundador y director general ejecutivo de Synthesia, Victor Riparbelli, la educación, no la protección, es el primer paso. Antes de las elecciones al Senado en noviembre en los EE. UU., Synthesia, una empresa de videos generados por inteligencia artificial lanzó Deepfaked, una base de datos pública de deepfakes, los videos falsos creados mediante software o inteligencia artificial. Su objetivo era proporcionar a los reguladores y al público un conocimiento compartido de la tecnología.
"Lo que tratamos de hacer aquí no es ser prescriptivos en cuanto a lo que debemos o no debemos hacer, sino simplemente proporcionar un lugar para que la gente tenga un contexto sobre lo que son los deepfakes", comentó Riparbelli.
Una amenaza para la sociedad
En parte, esta base de datos redujo el estigma y el miedo que rodean a los deepfakes. A pesar de su mala reputación la mayoría de los deepfakes se utilizan con fines de marketing o entretenimiento, y no con fines maliciosos, explicó Riparbelli.
Añadió que, en contra de sus expectativas iniciales, el índice de deepfakes no aumentó de forma notable durante las elecciones de mitad de mandato de 2022, y que los videos falsos que aparecieron fueron detectados y denunciados rápidamente por la prensa.
Pero con el rápido ritmo de innovación de la IA, Riparbelli dijo que cree que la inteligencia artificial generativa supone una amenaza para la sociedad, ya que tanto los ciudadanos anónimos a través de ataques como la pornografía deepfake no consentida, como las figuras públicas están en peligro.
Tanto él como Ahmed coinciden en que el sector necesita unos protocolos de seguridad y una regulación más generalizadas. En la actualidad, no existe en los EEUU una legislación federal exhaustiva sobre inteligencia artificial, aunque en 2022 poco a poco se fue dando la aparición de una regulación específica para cada caso de uso en torno a cuestiones como la inteligencia artificial sesgada en la contratación.
Sin embargo, Ahmed explicó que los funcionarios del Gobierno de los EE. UU. colaboran con nuevas empresas de inteligencia artificial para formar asociaciones y financiar la investigación en torno a estas cuestiones.