¿Por qué Marck Zuckerberg propone una inteligencia artificial abierta?
A fines de agosto el empresario Mark Zuckerberg generó una polémica al revelar que su proyecto "Llama" de inteligencia artificial (IA) será de código abierto. Quienes impulsan una IA de código abierto tienden, en general, a estar en contra de la regulación porque limitaría la innovación y la accesibilidad.
Ahora bien, como toda época de cambios, lo nuevo suele ser renovador, aunque al mismo tiempo encierra límites y riesgos. El uso indiscriminado y sin regulación de las IA enfrenta la posibilidad del abuso con intenciones negativas respecto de la confidencialidad y el prestigio de personas y empresas tal como interpretó la reciente regulación de la Unión Europea al respecto.
Con este anuncio de la nueva inteligencia artificial, Meta (propietaria de Facebook, Instagram, WhatsApp, etc.) se diferencia de las otras empresas de IA (OpenAI, Google DeepMind y Anthropic) que cobran por su acceso.
El código abierto abre la posibilidad de que más creaciones falsas (deepfake) sean realizadas sin poder rastrear origen. Zuckerberg argumenta que su desarrollo favorece la democratización, pero los críticos señalan los riesgos.
La innovación puso al final en debate si la inteligencia artificial debe ser regulada o no. Después de la norma SB1047 en California y el reglamento de la Unión Europea 2024/1689 no quedan dudas que la regulación es lo que se viene. Más aún, desde la experiencia de casos de noticias falsas, imágenes, audios y el acceso a información confidencial, la regulación no debe afectar el potencial uso innovador de la inteligencia artificial.
A favor de Meta, es cierto que detrás del potencial control de la IA de código abierto están los intereses de las compañías que no quieren prescindir de vender el acceso a sus plataformas (fees), aunque no es menos cierto que los riesgos son palpables y evidentes.
Regulaciones sobre la inteligencia artificial
Un ataque al prestigio de alguien con inteligencia artificial es un hecho que solo necesita tener suerte una vez, pero la defensa necesita tener suerte todas las veces. Es igual a un virus, que puede propagarse y matar en cuestión de días, mientras que implementar un tratamiento puede llevar años.
Por lo tanto, todas las regulaciones que obliguen a las empresas a tomar la responsabilidad de limitar el uso indebido de la inteligencia artificial debe ser bienvenido. Zuckerberg admite que la tecnología de código abierto en inteligencia artificial es fácilmente apropiada por actores malintencionados, y la solución que parece proponer es dársela gratis.
La inteligencia artificial llegó para cambiar el mundo y aún no sabemos exactamente qué consecuencias tendrá sobre el futuro de nuestras vidas. Algunos usos empiezan a desplazar puestos de trabajo, en sectores creativos que hasta ahora eran lugares de difícil reemplazo de la capacidad humana de trabajo. Fotografía, respuestas automáticas de servicios, educación, identificación biométrica, programación, y potencialmente transporte público son las que están más en evidencia.
La reproducción de imágenes y voz se hacen muy difícil de identificar si es falsa o verdadera, por lo cual la regulación de la Unión Europea (UE) sienta las bases para avances que logren una inteligencia artificial fiable y segura.
El reglamento destaca la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de inteligencia artificial como en el caso de la identificación biométrica. Su preocupación se focaliza en la aplicación de manera remota, aunque sea aplicado dentro de la jurisdicción de la UE.
La reglamentación enfatiza en que se ajuste el derecho ya constituido y que armonice en especial con los derechos tendientes a la protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos.
El desafío más evidente es proteger la vida privada y la confidencialidad de las comunicaciones, y la preocupación respecto a las condiciones para el almacenamiento de datos personales. Falta ver cómo esta nueva normativa se aplica de manera concreta, pero desde ya, significa un avance en la identificación de potenciales riesgos y el establecimiento de límites que resguarden los derechos de las personas.
Por un lado, quienes están en contra de la reglamentación de la inteligencia artificial, y por el otro quienes están a favor. Un análisis en detalle de este debate en la Argentina merecería un tratamiento de carácter de urgencia. Esperemos que se logre.
(*) Consultor en investigación y prevención de fraude corporativo. Director general de Analitix.