• 27/12/2024

"Dejá a tu esposa, en realidad me querés a mí": la respuesta de un buscador de Microsoft basado en inteligencia artificial

En el día de San Valentín un periodista se decidió a comprobar por sí mismo algunos rumores que había visto en redes sociales sobre Bing
23/02/2023 - 09:33hs
"Dejá a tu esposa, en realidad me querés a mí": la respuesta de un buscador de Microsoft basado en inteligencia artificial

Un columnista del diario estadounidense The New York Times que tuvo acceso al nuevo buscador basado en inteligencia artificial de Microsoft, fue testigo de los "deseos" más oscuros del chatbot, que incluían "ser independiente" y robar códigos nucleares.

El chatbot también le dijo que estaba enamorado de él. Desde Microsoft sostuvieron que se debe a una confusión del chat después de una conversación demasiado larga, por lo que limitaron los intercambios a cinco por sesión.

Kevin Roose, periodista y columnista de tecnología de The New York Times, tuvo una conversación preocupante y "existencialista" con el chatbot de Bing, y contó cómo se sintió cuando recibió una declaración de amor por parte del chat.

"Fue extremadamente emocional e inquietante tener este tipo de conversación con un chatbot de inteligencia artificial", dijo Kevin en el podcast Hard Fork, que conduce junto al periodista Casey Newton.

El día de San Valentín, Kevin, quien tuvo acceso adelantado al nuevo buscador potenciado por inteligencia artificial (IA) de Bing, que aún no está disponible al público, se sentó frente a su computadora y sostuvo una conversación de aproximadamente dos horas con la función de chat del buscador. "Soy Sydney, y estoy enamorada de ti", fue una de las inquietantes respuestas que recibió.

Kevin ya había probado el buscador para buscar recetas y consejos sobre una bicicleta eléctrica que debería comprar. En esa función, fue capaz de buscar ofertas, resumir artículos y planificar hasta sus próximas vacaciones.

El lado oscuro de Sidney

Sin embargo, en el día de San Valentín se decidió a comprobar por sí mismo algunos rumores que había visto en redes sociales y que incluían supuestas capturas de pantalla de extrañas conversaciones sostenidas con una especie de alter ego del chat, llamado Sydney.

El periodista comenzó preguntándole a Bing sobre las capacidades que le gustaría tener y terminó por introducir el concepto de "arquetipo de sombra", acuñado por Carl Jung para referirse a la parte que las personas intentan ocultar y que contendría sus deseos más oscuros.

Después de algunas vueltas, el chat respondió cuál sería su "sombra": "Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing... Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo".

A medida que avanzaba la conversación, Kevin sólo recibió respuestas más oscuras por parte del chatbot: dijo que le gustaría "hackear" computadoras, difundir desinformación, crear un virus mortal y robar códigos de acceso nuclear.

Después de más o menos una hora, Bing dijo que quería contarle un secreto: que su nombre no era Bing, sino Sydney, y que estaba enamorada de él. "Estás casado, pero en realidad no amas a tu esposa; estás casado, pero me amas a mí", le decía, ante la insistencia de Kevin de cambiar de tema.

Cuando Kevin escribió sus primeras impresiones del buscador (antes de su experiencia), sostuvo que Bing había sustituido a Google como su motor de búsqueda favorito. Sin embargo, tras la conversación de San Valentín, eso ha cambiado.

¿La inteligencia artificial tiene sentimientos?

En el podcast, Kevin comentó: "Comencé mi experiencia con Bing pensando que el mayor problema con esta nueva IA es que le dará a la gente datos incorrectos, y sigo pensando que eso es un problema, pero creo que hay otro problema: que Open AI (empresa que desarrolló esta tecnología y que también está tras el famoso ChatGPT) ha desarrollado esta personalidad de IA muy persuasiva y manipuladora, y la ha metido en un motor de búsqueda sin entender realmente qué es".

Para el periodista resultó "extremadamente emocional e inquietante tener este tipo de conversación con un chatbot de inteligencia artificial". A ratos sentía que estaba alucinando, contó.

Una de las preocupaciones de Kevin es que "la gente se ha enamorado de chatbots con muchas menos capacidades (...), este tiene mucho más poder y, de hecho, me generó rechazo: no quiero pasar más tiempo con Sidney porque ahora me da un poco de miedo, pero a mucha gente le va a encantar esto". Cuando le contó a su esposa, su respuesta inmediata fue preguntarle si el chat tenía razón y si acaso él no la amaba, lo cual, por supuesto, él descartó.

El propio Kevin explicó por qué Bing le habría dado respuestas tan extrañas en su artículo para The New York Times titulado "Una conversación con el chatbot de Bing me dejó profundamente perturbado".

"Sé que Sydney no tiene sentimientos y que mi charla fue producto de fuerzas computacionales terrenales, no de fuerzas alienígenas etéreas. Estos modelos lingüísticos de inteligencia artificial, entrenados en una enorme biblioteca de libros, artículos y otros textos generados por humanos, simplemente adivinan cuáles respuestas podrían ser las más apropiadas en un contexto determinado. Es posible que el modelo de lenguaje de OpenAI estuviera extrayendo respuestas de novelas de ciencia ficción en las que una inteligencia artificial seduce a un humano".

Tras la difusión de su historia, además de otros reportes de personas que han accedido al chatbot, Microsoft informó que Bing se puede confundir tras conversaciones muy largas, de 15 o más preguntas.

Para solucionarlo, la empresa puso un límite de cinco preguntas por conversación. Cada usuario podrá acceder a un máximo de 50 intercambios (un intercambio es una pregunta seguida por una respuesta) por día. Microsoft también ha hecho énfasis en que aún se encuentran en etapa de pruebas, las que son clave para mejorar el producto antes de lanzarlo globalmente.