Ante la ausencia de legislación sobre IA, ¿las empresas se autorregularán?
La Inteligencia Artificial (AI) ya está produciendo cambios inesperados en las formas en las que vivimos, trabajamos, nos comunicamos: probablemente por primera vez en la historia, el sector privado de empresas multinacionales de tecnología está pidiendo a los gobiernos de las potencias mundiales que regulen su propio campo de acción.
Claro que está fresco el recuerdo del CEO de Meta, Mark Zuckerber, teniendo que comparecer por el uso que grupos de interés habían hecho de su plataforma (Facebook) para diseminar información que influyera en los resultados de las elecciones que consagraron a Donald Trump como Presidente de Estados Unidos. Un episodio que ninguno de los líderes de Silicon Valley quisiera repetir.
Las implicaciones de la IA serían potencialmente mucho mayores que las de aquellos comicios y en todas las áreas, por eso causan preocupación incluso en las personas que lideran las empresas que impulsan el desarrollo de esa tecnología.
El propio Sam Altman, CEO de OpenAI –firma creadora del popular ChatGPT- está en medio de un recorrido de países en los que se encuentra con autoridades de gobierno para pedir mayores regulaciones para la IA y transmitir su propia preocupación sobre los usos que se le podrían dar a ea tecnología.
"La intervención de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes," dijo recientemente en su exposición en el Senado de Estados Unidos. "Vamos a enfrentarnos a unas elecciones el año que viene y estos modelos son cada vez mejores", agregó sobre lo que ocurrirá en su país de origen.
Piensa que sería oportuno crear "un régimen de licencias para las empresas" que trabajan en los sistemas de IA más potentes. "Esta combinación de requisitos de licencias y pruebas", podría aplicarse al "desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades".
IA y autorregulación
Un reciente informe de la consultora Baker McKenzie evalúa otro enfoque, el de la autorregulación de las propias empresas para comenzar a determinar las mejores prácticas corporativas en cuanto al uso de inteligencia artificial.
En particular, se evalúa el uso creciente de IA en el management de personal y en áreas de Recursos Humanos. Aparecen entonces preocupaciones desde el punto de vista legal, de ciberseguridad, confidencialidad, derecho a la privacidad, etc.
"Se espera que el uso de IA para asistir las decisiones de empleo sea puesto bajo escrutinio a nivel global", menciona el reporte como tendencia.
Alberto Gonzalez-Torres, socio de Baker & McKenzie en Argentina comentó a iProfesional que en el área de gestión de personas, se trata de un fenómeno tan reciente que aún no hay normativa al respecto, y que de hecho hay poca regulación del uso de la IA en el trabajo en la región.
"Hemos visto empresas que utilizan IA en los procesos de selección de personal, en las primeras etapas. Los candidatos que pasan los primeros filtros siguen siendo entrevistados por personas humanas. El punto es que la IA utiliza conocimientos, los datos con los que ha sido entrenada. Es posible que la empresa que utilice la herramienta desconozca los parámetros que utiliza IA para elegir entre candidatos", describió.
En esa instancia es donde el experto señala que la empresa podría correr el riesgo de que se considere esa primera etapa de selección como discriminatoria. "Y en ese caso, surge la pregunta de quién sería el responsable del accionar discriminatorio de una herramienta tecnológica", preguntó.
"Vimos también casos en los que se utiliza la IA para la gestión de nómina (salarios, licencias, evaluaciones de desempeño). Se abren muchísimos interrogantes legales y de responsabilidad como consecuencia del obrar de una cosa -la IA- que con el tiempo se irán resolviendo", finalizó Gonzalez-Torres.
Autorregulación preventiva
Desde la consultora recomiendan entonces que, mientras no haya legislación consolidada en esta materia, incluyendo a los casos de decisiones automatizadas de empleo, son un "must" las políticas corporativas internas bien explicitadas. "Tomar pasos firmes para asegurar el uso apropiado de la IA en la organización mitigará significativamente el riesgo futuro de litigio", indican.
Sin embargo, son más los casos en los que las compañías no accionan sobre este nuevo fenómeno. Gonzalez-Torres indicó que, "por el momento, la mayoría de las empresas están expectantes y son reticentes al uso de IA de modo consistente."
"Hemos visto regulaciones internas que tratan indirectamente el tema al incluir prohibiciones expresas de inclusión de datos de la empresa que puedan infringir la ley de confidencialidad, o datos personales que puedan considerarse datos sensibles. El cuidado por el momento tiene más que ver con la protección y transmisión de datos", añadió.
La Argentina no es excepción. El socio de Baker & McKenzie asegura que ya algunas empresas multinacionales con presencia en el país están implementando procesos básicos de IA. "Nuestra sugerencia es avanzar con proactivamente con políticas porque el fenómeno avanza muy por delante de la normativa legal", sentenció.