Es hora de regular la inteligencia artificial
Las naciones más poderosas del mundo nucleadas en el G7 acordaron el primer código de conducta para limitar las acciones de las empresas desarrolladoras de inteligencia artificial (IA).
El objetivo que se persigue es restringir las prácticas de desinformación que la inteligencia artificial podría ocasionar, así como también la vulneración de derechos fundamentales como la privacidad y la intimidad.
Está claro que los gobiernos deben regular cuanto antes el uso de la inteligencia artificial, como una forma de impulsar sus beneficios y de frenar los grandes riesgos que podría enfrentar su gente por su uso en actividades poco éticas.
Cada vez más personas y empresas están expuestas a perder la privacidad de sus datos, recibir ataques de manipulación digital y reducir sus condiciones laborales, entre otros inconvenientes, por un uso incorrecto de la tecnología.
En la Argentina se han encendido las alarmas ante la utilización de técnicas como "deep fake", que usa la IA para imitar en forma digital la voz de los candidatos, en la creación de campañas de desprestigio en los recientes procesos electorales. Un problema que se une al uso generalizado e ilegal de bases de datos de ciudadanos para manipular su opinión, con noticias falsas y contenidos malintencionados.
Las empresas tampoco son ajenas a los retos que plantea esta tecnología. Una vez que la IA está calibrada por completo con la infraestructura de una organización, le permite contar con una protección sólida contra ciberataques e impulsar sus ventas rápidamente, por ejemplo.
Punto de quiebre por la inteligencia artificial
Sin embargo, para llegar a ese punto, la plataforma debe acceder a millones de datos de los usuarios, especialmente durante su entrenamiento, lo que puede resultar invasivo.
Según una encuesta global elaborada por Zoho, el 81% de los trabajadores tiene preocupaciones de la forma como estas tecnologías exponen sus datos privados, al tiempo que 49% expresa su miedo por la gestión de sus datos y su privacidad. Eso sí, el 84% cree que la IA será aceptada y utilizada en los lugares de trabajo durante el próximo año.
La inteligencia artificial evoluciona a un ritmo tan rápido que es imposible que los gobiernos y reguladores, que operan con lentitud, se lo sigan. Según el informe Perspectivas de directores de Riesgos Empresariales, el 43% de los encuestados considera necesario frenar el desarrollo de la IA mientras las regulaciones se ponen al día, y el 90% considera que las regulaciones deben acelerarse.
Estamos en un punto quiebre en que los gobiernos están llamados a diseñar normas que impulsen el desarrollo de la inteligencia artificial, acordes con las necesidades de sus comunidades, que reduzcan los riesgos y fijen límites éticos para su uso.
Proteger la privacidad de los datos siempre será la base para regular esta tecnología en cualquier parte del planeta. Las medidas deben establecer límites claros a las organizaciones para que recopilen, almacenen, compartan y utilicen la información con esta tecnología, al tiempo que creen mecanismos para que los ciudadanos tengan todo el control sobre sus propios datos.
La regulación relacionada con la inteligencia artificial también debe condenar claramente las actividades ilegales que se puedan realizar con su uso. Aquí es clave considerar normas para alertar y condenar su uso en este tipo de actividades, que comprenden desde fraudes hasta crear contenido engañoso, como "fake news" y campañas de manipulación.
Para completar, los gobiernos también deben crear un marco jurídico que facilite su utilización por parte de organizaciones de todos los tamaños y sectores económicos. Es clave que la ley no estimule la creación de monopolios por parte de proveedores de soluciones tecnológicas, que solo sirven para encarecer los servicios y restringirlos a unos pocos.
Este es un camino largo que hasta ahora comenzamos a andar. Todas las partes de la sociedad están llamadas a entender las grandes oportunidades que brinda la inteligencia artificial, para que también estén listas para mitigar los riesgos de su mala utilización.
(*) Directora de nuevos negocios de Zoho.