Inteligencia artificial: ¿cómo impacta en la ciberseguridad?
Según la Revista de Cibercrimen (Cybercrime Magazine) y el Foro Mundial de Economía (World Economic Forum), se estima que el costo global del cibercrimen alcanzará los 10,5 billones de dólares anuales para 2025, un aumento significativo desde los 8,44 billones de dólares en 2022.
Esta alarmante tendencia está impulsada por la creciente frecuencia y sofisticación de los ataques cibernéticos, incluyendo malware y ransomware. En 2022, se registraron 5,4 mil millones de ataques de malware, y los ataques de ransomware aumentaron un 102% en la primera mitad de 2021 en comparación con 2020.
La ciberseguridad en la Argentina también es un tema de gran preocupación, especialmente en las organizaciones públicas. En 2023, la Argentina registró un alarmante incremento en los intentos de ciberataques, superando los mil millones en el primer semestre del año.
Con la llegada de la inteligencia artificial (IA) la ciberseguridad se está transformando de maneras significativas, afectando tanto a grandes empresas como a usuarios comunes. ¿Cuáles son los últimos avances, las herramientas emergentes y cómo la IA impacta, de manera positiva o negativa según su uso, en la seguridad en línea en nuestro día a día?
Automatización y detección en tiempo real
Uno de los mayores avances de la IA en ciberseguridad es su capacidad para automatizar la detección y respuesta a amenazas. Los sistemas tradicionales tardaban horas o días en identificar ataques, pero con la IA, estos procesos ocurren en tiempo real.
Esto resulta crucial para empresas que no cuentan con un equipo de seguridad robusto, ya que se pueden bloquear amenazas sin intervención humana. Los sistemas de detección de intrusiones basados en IA analizan automáticamente el tráfico de red y detectan actividades sospechosas, bloqueando ataques antes de que causen daño.
Inteligencia artificial generativa: una espada de doble filo
La IA generativa es capaz de crear contenido realista, como "deepfakes" y correos electrónicos de phishing altamente sofisticados. Esto ha hecho que los ataques sean más difíciles de detectar, pero al mismo tiempo, ha llevado a la creación de herramientas más avanzadas para defenderse.
En el caso de deepfakes, los ciberdelincuentes están utilizando IA para crear videos, imágenes y audios falsos que imitan a personas reales, engañando a usuarios comunes para que entreguen información confidencial.
El phishing, a través de correos electrónicos ahora son más convincentes gracias a la IA, ya que pueden personalizarse para que parezcan enviados por fuentes confiables, como bancos o servicios de mensajería.
Herramientas emergentes en ciberseguridad
Diversas herramientas impulsadas por IA están ayudando a las empresas y personas a protegerse mejor en línea. Estas herramientas pueden analizar grandes volúmenes de datos y detectar amenazas que pasan desapercibidas para los sistemas tradicionales.
Por ejemplo, Synthesia es una herramienta de IA para crear vídeos con avatares humanos y voces generadas automáticamente, optimizando la comunicación empresarial, aunque también plantea riesgos si es utilizada de manera maliciosa. Otter es una herramienta de transcripción que convierte texto hablado a texto escrito utilizando IA, mejorando la eficiencia en la gestión de datos y reuniones.
Impacto en los usuarios finales
Para los usuarios cotidianos, la inteligencia artificial en ciberseguridad mejora su protección frente a estafas y ataques, pero también genera nuevas preocupaciones. Herramientas como antivirus basados en IA pueden bloquear ataques de malware y phishing sin intervención del usuario.
Esto asegura que incluso aquellos sin conocimientos técnicos puedan estar más protegidos. Sin embargo, la IA también plantea problemas de privacidad. Los sistemas que recopilan y procesan grandes volúmenes de datos pueden vulnerar la información personal si no se gestionan adecuadamente.
Novedades regulatorias
El rápido avance de la IA ha generado debates sobre la regulación. Países como China ya han implementado leyes que regulan el uso de tecnologías de IA, como los deepfakes, mientras que otros gobiernos están empezando a adoptar marcos para gestionar los riesgos de la IA en ciberseguridad.
(*) Gerente de inteligencia artificial de Coderhouse.