• 22/12/2024

Para el presidente de Microsoft, es necesario tener una manera de ralentizar o apagar la IA

Qué opina Brad Smith, el presidente de Microsoft sobre la inteligencia artificial, sus peligros, y Copilot, la herramienta de su compañía
20/02/2024 - 11:15hs
Para el presidente de Microsoft, es necesario tener una manera de ralentizar o apagar la IA

El presidente de Microsoft, Brad Smith, considera que la inteligencia artificial (IA) es la tecnología más importante que se haya creado desde la invención de la imprenta, pero no niega que existen problemas respecto a su uso y control, desde los ciberataques hasta la compleja protección de los derechos de autor. 

Su gran preocupación sobre este tema, según le dijo El País, es el uso de "deepfakes" para alterar el resultado de las elecciones, en un año en el que prácticamente medio planeta pasará por las urnas.

Smith es un abogado de Milwaukee, EE UU, de 65 años de edad y presentó en la Conferencia de Seguridad de Múnich un acuerdo, junto con otra veintena de compañías, para tratar de mejorar la respuesta tecnológica a estos engaños y la transparencia de las compañías que controlan la IA.

Qué opina Brad Smith sobre Copilot

"Creo que la inteligencia artificial es el invento más importante para la mente humana desde la invención de la imprenta. Y eso fue hace casi 600 años. Piense en la imprenta y en lo que consiguió: hizo posible que las personas escribieran, que otras leyeran y que las economías de mercado florecieran. Con la inteligencia artificial pasa algo muy similar, ya que es una herramienta que puede ayudar a idear de otra manera", expresó el presidente de la empresa tecnológica

Durante la entrevista, Smith se refirió a Copilot, el asistente de Inteligencia artificial de Microsoft. "Copilot es un copiloto. No es un piloto. (...) es una herramienta. Le ayuda, le da ideas, pero, en última instancia, necesitará usar su juicio. Y creo que eso es lo que deberíamos pedir a todas las personas que utilizan esta tecnología: que la usen para ser más creativos, desarrollar ideas, ayudar con la escritura, pero delegar o externalizar tu pensamiento a una máquina sería un error."

También consideró que Copilot es enormemente valioso para encontrar patrones en grandes cantidades de datos, para ofrecer ideas que les permitan avanzar en cuestiones como el descubrimiento científico, y, "si lo usamos bien, puede ser un acelerador para las personas y lo que hacen."

Qué opina Brad Smith, presidente de Microsoft, sobre Copilot, la herramienta de IA
Qué opina Brad Smith, presidente de Microsoft, sobre Copilot, la herramienta de IA

Sobre las proyecciones del Fondo Monetario Internacional (FMI) acerca de cómo la IA puede impactar en el 60% de los empleos, afirmó que "es un problema muy importante que debemos abordar", pero matizó diciendo que la PC y el teléfono móvil en los últimos 40 años vienen impactando probablemente a más empleos "y aun así, hemos estado adaptándonos a este cambio durante casi toda la vida laboral de todos los que estamos trabajando hoy en día." 

"La verdadera lección de los últimos 40 años es que si las personas pueden mantenerse a la vanguardia en el conocimiento de cómo usar la tecnología, es probable que tengan éxito en sus carreras. Sus trabajos pueden llevarles a lugares que no necesariamente anticiparon. Va a haber un impacto real en la forma en que trabajamos, sí. Y esto debería inspirarnos y, también, alertarnos de la urgencia de aprender a usar esta tecnología y mejorar en lo que sea que queramos hacer," sentenció.

IA y derechos de autor

En este momento, Microsoft está siendo demandado por el diario norteamericano, The New York Times, por infracción de derechos de autor. 

"Creo que este es un aspecto natural e inevitable de una nueva tecnología que impacta en cómo las personas crean y distribuyen lo que escriben", opinó Smith al respecto.

Consideró que desde el punto de vista legal, cabe preguntarse qué hacer si un sistema de inteligencia artificial genera un resultado que copia algo que está protegido. "Eso es una violación de la ley, no hay duda al respecto. Y hemos hecho dos cosas para abordar esto. Primero, construimos una arquitectura completa alrededor de Copilot y otras herramientas. Y segundo, le hemos dicho a todos nuestros clientes que este es nuestro problema legal, no el suyo. Si utilizan nuestro sistema correctamente, nosotros somos los responsables, no ellos", amplió.

Y luego hay otra pregunta, más incierta para el número uno de Microsoft: "¿Se puede entrenar en IA leyendo todas las obras del mundo?"

The New York Times demanda a Microsoft por infringir derechos de autor
The New York Times demanda a Microsoft por infringir derechos de autor

"Siempre se ha entendido que puedes leer todo lo que quieras y recordar todo lo que puedas. Me reuní con un funcionario del Gobierno en Alemania la semana pasada que dijo que había leído, según su estimación, alrededor de 5.000 libros en su vida. Cuando da un discurso, no tiene que retroceder y preguntar, ¿dónde leí esto? ¿Tengo que dar crédito a dónde saqué esta idea por primera vez? Todos tenemos el derecho, bajo la ley de derechos de autor, de leer y aprender. La cuestión es si podemos permitir que las máquinas aprendan de la misma manera", argumentó.

Por otra parte, opinió que si realmente se quiere abrir esta nueva industria a desarrolladores de código abierto y a académicos, es fundamental que esté abierto a ese tipo de aprendizaje.

"Al mismo tiempo, ninguno de nosotros debería querer que esta nueva tecnología deje fuera del negocio a los creadores," dijo Smith, y aclaró: "Creo que tendremos que encontrar una manera de equilibrar ese aprendizaje con brindar a los creadores la capacidad de seguir ganando un buen sustento."

Sobre la posibilidad de llegar a un acuerdo entre las empresas de IA y los creadores, planteó tres objetivos:

1. garantizar que la tecnología pueda avanzar y compensar a los creadores de hoy y del futuro.

2. asegurarnos de que esto avance de tal forma que haga que este contenido esté disponible de manera amplia y en términos económicamente asequibles para todos. 

3. pensar en el impacto para las empresas que también controlan gran parte del contenido.

"The New York Times puede parecer un gran propietario pero, en comparación con YouTube, es minúsculo", ejemplificó.

Smith consideró positivo que se regule la IA
Smith consideró positivo que se regule la IA

Por último, Smith dijo que es un dato positivo la nueva regulación que la Unión Europea pidió para la IA, y consideró que se debe establecer algún tipo de seguridad para esta tecnología: "La ley de IA hace esto; examina los estándares de seguridad e impone una base para estos modelos. Y no es muy diferente de lo que está haciendo el Reino Unido o Estados Unidos."

"Tenemos que tener cuidado. Necesitamos tener seguridad sin crear un nivel de administración onerosa que aumentaría los costos, especialmente para las startups. Las empresas a las que oí expresar más preocupación sobre la ley de IA no son las más grandes. Nosotros, francamente, tenemos la infraestructura para cumplirla. Son las startups las que quizá no puedan. Todo va a depender de la implementación", sentenció.

Una manera de ralentizar o apagar la IA

En este aspecto, el presidente de Microsoft volvió a defender  un "freno de seguridad" para la IA. ¿En qué consiste? "Se trata de abordar lo que la gente a menudo describe como una amenaza existencial para la humanidad; esa IA descontrolada que buscaría extinguir a los humanos."

"Es sorprendente que haya 50 películas con el mismo argumento: una máquina que puede pensar por sí misma decide esclavizar o extinguir a la humanidad, y la humanidad lucha y gana apagando la máquina. ¿Qué nos dice eso? Que tenemos que tener una forma de ralentizar o apagar la IA, especialmente si está controlando un sistema automatizado de una infraestructura crítica", le dijo a El País.

Desde hace 9 meses Smith impulsa este concepto y le preocupa que las personas quieran enfocarse en desafíos inmediatos de la IA en lugar de avanzar hacia medidas de seguridad frente a esta posibilidad. "Sabemos cómo hacerlo: cada autobús y cada tren tiene un freno de emergencia", destacó.

No es el único peligro. De hecho, Microsoft y OpenIA acaban de publicar un informe sobre cómo China, Rusia, Corea del Norte e Irán están usando la IA generativa para ciberataques cada vez más sofisticados.

"No vamos a permitir que actores estatales se involucren en este tipo de conducta perjudicial con el uso de nuestras aplicaciones, porque consideramos que eso, probablemente, hará daño al mundo. Pero, además, necesitamos usar la IA para contraatacar y generar una protección de ciberseguridad más fuerte", opinó.

Sobre el acuerdo para que la IA no se utilice para distorsionar información en campañas electorales, remarcó que se debe a que se ve un rápido uso de los deepfakes para intentar engañar al público sobre, por ejemplo, lo que un candidato dijo.

"Con este acuerdo tecnológico nos enfocamos en tres cosas. Una es proteger mejor la autenticidad del contenido con credenciales y marcas de agua. En segundo lugar, detectar deepfakes y eliminarlos si quieren engañar al público. Y, tercero, debemos enfocarnos en la educación ciudadana. Y esto es una prioridad enorme para Microsoft. Personalmente, es probable que yo haya pasado más tiempo entre finales del año pasado y el viernes en este único problema que en cualquier otra cosa, porque creemos que es fundamental afrontar este asunto", afirmó.

"Cuanto más poderosa se vuelve una tecnología, más fuertes tienen que ser las salvaguardias y controles que la acompañen. Creo que todos vamos a tener que esforzarnos más", finalizó Smith.

Temas relacionados