• 22/12/2024

Marcos Galperin usó Chat GPT y advirtió: "Es muy peligroso"

El CEO de Mercado Libre descubrió que esta herramienta de Inteligencia Artificial no acertó en los datos que aportó sobre su perfil
28/03/2023 - 14:48hs
Marcos Galperin usó Chat GPT y advirtió: "Es muy peligroso"

El CEO de Mercado Libre, Marcos Galperin, contó su experiencia con la Inteligencia Artificial (IA), y tras una serie de consultas al Chat GPT, dijo que el resultado lo dejó atónito: "Es muy peligroso", enfatizó.

El Chat GPT de inteligencia artificial, diseñado por Open AI, generó un gran revuelo ante su lanzamiento. En él, se pueden realizar preguntas, pedirle que desarrolle textos o que opere como asistente en otras funcionalidades: desde consultar por un hecho histórico hasta crear una canción. Pero los usuarios reportaron algunos fallos: por ejemplo, el Chat GPT no relaciona hechos y datos registrados luego de septiembre de 2021 en el ámbito del deporte. Así, al consultarle por el Mundial de Qatar 2022, que consagró a Argentina como campeón del mundo, esta herramienta respondió: "El Campeonato Mundial de la FIFA Qatar 2022 aún no ocurrió".

En tanto, Galperin decidió consultar por su trayectoria en este mecanismo de Inteligencia Artificial, pero el resultado lo desconcertó. "Según Chat GPT 4, trabajé en Boston Consulting Group, fui director de Aerolíneas Argentinas y Globant es una empresa de tecnología brasileña... Cuando le comenté que estos eran todos errores, dijo que fui director del Banco Comafi (también equivocado)", expresó en su cuenta de Twitter.

Y advirtió: "El problema es que, excepto la gente que me conoce muy bien, muy pocos sabrían reconocer los errores de lo correcto en lo que dijo de mí. Cuando le consultamos por temas en los que no somos expertos y que son importantes, como temas de salud, estas alucinaciones pueden ser muy peligrosas".

Cada vez hay más dudas sobre el ChatGPT.
Cada vez hay más dudas sobre el ChatGPT.

Nueva versión de ChatGPT

El boom de la Inteligencia Artificial (IA) tiene en el centro de la escena al ChatGPT, una herramienta que suma cada vez más adeptos. A medida que la tecnología se inserta en la sociedad, muchos tienen miedo de que llegue a sembrar nuevos problemas y peligros.

Entre quienes opinan de esta manera se encuentra el propio creador del ChatGPT, Sam Altman, actual CEO de la empresa OpenAI.

Altman remarcó en una entrevista que tanto reguladores como la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad. "Tenemos que tener cuidado aquí. Creo que la gente debería estar feliz de que estemos un poco asustados por esto".

"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró a ABC News.

OpenAI lanzó recientemente el GPT-4, la última versión del ChatGPT que cuenta con una capacidad sorprendente.

El modelo de lenguaje aprobó los exámenes para ingresar a la facultad de derecho con un puntaje de 88%, el prestigioso Bar con 90% y todos los exámenes de secundaria con más de 85%.

Pese a todo, Altman reflexionó: "Esta es una herramienta que está en gran medida bajo el control humano". En este sentido, marcó que el GPT-4 "espera a que alguien le dé una entrada", y lo preocupante es, en realidad, es quién tenga el control de esas entradas.

De esta manera, son cada vez más las opiniones que hacen pensar sobre el riesgo del uso de la tecnolgía en diferentes medios y las consecuencias que tendrá para la sociedad.

Temas relacionados