POLÉMICA

El "padrino" de la inteligencia artificial deja Google y avisa de los peligros de esta tecnología

Este experto teme sobre todo que Internet se vea inundada de falsos textos, fotos y videos, y que las nuevas herramientas reemplacen a muchos trabajadores
TECNOLOGÍA - 02 de Mayo, 2023

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), dejó su trabajo en Google para advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según aseguró en una entrevista publicada el lunes por el diario estadounidense The New York Times.

A menudo llamado el "padrino" de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. "Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho", señaló al diario.

La voz de alarma se suma a las advertencias que en los últimos meses hicieron otros expertos, sobre todo a raíz del lanzamiento de la inteligencia artificial generativa como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito. Hinton era vicepresidente de ingeniería en Google.

"Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas", dijo Hinton en la entrevista, en la que avisó sobre la velocidad excesiva a la que se están logrando avances.

"Mire cómo era hace cinco años y cómo es ahora", apuntó. "Tome la diferencia y propáguela hacia adelante. Eso asusta", señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la IA por su trabajo.

A corto plazo, este experto dijo que teme sobre todo que Internet se vea inundada de falsos textos, fotos y videos, y que las personas no puedan ser capaces de distinguir lo que es real. También dijo creer que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad.

Reclamo para frenar a la inteligencia artificial 

"La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunos lo creían", explicó. "Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Creía que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que pidieron suspender en forma temporal los experimentos.

Hace unas semanas se conoció que más de un millar de empresarios, intelectuales e investigadores relacionados con esta tecnología habían firmado una carta abierta en la que solicitaron una moratoria en su desarrollo para recapacitar sobre sus consecuencias.

Estos expertos pedían una pausa de "al menos seis meses en el desarrollo y pruebas de sistemas de IA más poderosos que GPT4", la última versión del gran modelo de lenguaje que usa ChatGPT.

La carta advierte de que este último modelo ya es capaz de competir con los humanos en un número creciente de tareas, y que podría usarse para destruir empleo y difundir desinformación.

Por ello, reclamaron un desarrollo seguro y solo cuando estén seguros de que sus efectos serán positivos. "Desafortunadamente", asegura la carta, "este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable".

Los antecedentes de un pionero de la inteligencia artificial

A través de Twitter, Hinton quiso puntualizar después que no dejó Google para criticar a la empresa, sino para hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él "ha actuado de forma muy responsable".

Hinton, profesor de la Universidad de Toronto (Canadá), desarrolló en 2004 los conceptos en los que se trabaja desde hace medio siglo y los orientó al aprendizaje mecánico y reconocimiento de elementos tan complejos como el habla o la imagen.

Creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales.

Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650.000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26% de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores. LeCun sumó una tecnología de reconocimiento óptico de caracteres.

Te puede interesar

Secciones