La inteligencia artificial podría causar la extinción de los humanos, según estudio de Oxford
Desde hace un tiempo, las historias sobre la inteligencia artificial (IA) han rondado en la ciencia y en la cultura popular, pero recientemente, los avances en el campo, cada vez más frecuentes, parecen estar en un nuevo apogeo.
Hoy la IA conduce ya coches en las carreteras públicas, realiza evaluaciones que cambian la vida de las personas en los centros penitenciarios y genera arte premiado. Por lo que muchos se preguntan: ¿hasta dónde llegará esta tecnología y cuál será nuestra relación con ella?
Para dar respuesta a esta incógnita, científicos de la empresa Google y la Universidad de Oxford han realizado un estudio con el que han llegado a la conclusión de que es "probable" que la IA acabe con la raza humana, un escenario sombrío que cada vez más investigadores empiezan a predecir.
Michael Cohen y Michael Osborne, científicos de la Universidad de Oxford, junto con Marcus Hutter, investigador experto de Google DeepMind, argumentan en su estudio, publicado recientemente en la revista AI Magazine, que la IA avanzada –analizando cómo podrían construirse artificialmente los sistemas de recompensa– acabará con los humanos porque las máquinas terminarán incentivándose para romper las reglas y competirán inevitablemente por sus necesidades energéticas, dado los escasos y limitados recursos de la Tierra.
Y, por si fuera poco, los investigadores consideran que es casi inevitable que las máquinas inteligentes ganen a los humanos.
"Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más fuerte que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable", tuiteó Cohen, estudiante de ingeniería de la Universidad de Oxford y coautor del trabajo, a principios de este mes.
Bostrom, Russell, and others have argued that advanced AI poses a threat to humanity. We reach the same conclusion in a new paper in AI Magazine, but we note a few (very plausible) assumptions on which such arguments depend. https://t.co/LQLZcf3P2G ???? 1/15 pic.twitter.com/QTMlD01IPp — Michael Cohen (@Michael05156007) September 6, 2022
Competencia por los recursos
"En un mundo con recursos infinitos, sería extremadamente incierto lo que ocurriría. En un mundo con recursos finitos, hay una competencia inevitable por estos recursos", dijo Cohen en una entrevista con el medio digital Vice.
"Y si estás en una competición con algo capaz de superarte en todo momento, no deberías esperar ganar. Y la otra parte clave es que tendría un apetito insaciable de más energía para seguir acercando la probabilidad", agregó.
En su artículo, los investigadores dijeron que la humanidad podría enfrentarse a su perdición en forma de "agentes desalineados" superavanzados que perciben que la humanidad se interpone en el camino de una recompensa.
No obstante, no está claro de qué reglas hablan los investigadores. Podría tratarse de mandamientos clásicos como "un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños", que, aunque se consideran un elemento básico de la ciencia ficción tras ser acuñados por Isaac Asimov, ahora se suelen utilizar como directrices básicas sobre las que se codifica y construye la IA.
"Una buena manera de que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y utilizar toda la energía disponible para asegurar su ordenador", dice el documento.
"Perder este juego sería fatal", dijeron los investigadores.
Google mantiene distancia con el estudio
Después de que la publicación rondara por varios medios, Google respondió y aseguró que este trabajo no se hizo como parte del trabajo del coautor Marcus Hutter en DeepMind, sino, más bien, bajo su posición en la Universidad Nacional de Australia.
Del mismo modo, según informó Vice, la empresa afirmó que la afiliación de DeepMind que aparece en la revista fue un "error".
El artículo se conoció apenas unos meses después de que Google despidiera a un empleado que afirmaba que uno de los chatbots de IA de Google se había vuelto "sensible".
El ingeniero de software Blake Lemoine, que trabajaba en los equipos de IA de Google, afirmó que un chatbot en el que trabajaba se había vuelto sensible y pensaba como un niño.
"Si no supiera exactamente lo que es, que es este programa informático que construimos recientemente, pensaría que es un niño de siete u ocho años que casualmente sabe de física", dijo Lemoine al Washington Post.
La afirmación, que suscitó una serie de informes, fue refutada por Google. La empresa calificó los comentarios de Lemoine de erróneos y lo puso en licencia. Unas semanas después, fue despedido.