La inteligencia artificial se ha vuelto un aliado significativo para los cibercriminales
Las tecnologías de inteligencia artificial (IA) se desarrollan con rapidez y cada vez son más asequibles, aunque podrían usarse con propósitos malintencionados. Un ejemplo explica los temores en torno a esta tecnología. Un dron de rastreo fabricado por la empresa Skydio cuesta 2.499 dólares.
Se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo. Con el tiempo, reunir estos componentes será cada vez más fácil y barato.
Estas mismas tecnologías aportan un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de Internet.
A veces, los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos para que, por ejemplo, vean cosas que no existen. En un contexto como éste, los delincuentes podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.
Hernando Castiglioni, gerente de Ingeniería para Sudamérica Este de la empresa de seguridad informática Fortinet, explica en la siguiente entrevista con iProfesional cómo los cibercriminales utilizan la inteligencia artificial para sus actividades.
Insólito: la guerra de los postes impide que se realicen inversiones en telecomunicaciones
-Las tecnologías de inteligencia artificial se desarrollan con rapidez y cada vez son más asequibles. Pero ¿podrían usarse con propósitos malintencionados?
-Sí, claro. El negocio de la ciberdelincuencia es muy grande y puede sostenerse pese a que la inteligencia artificial presupone un gran conocimiento para su despliegue y una costosa infraestructura para su ejecución.
Tal como las organizaciones pueden usar inteligencia artificial para mejorar su postura de seguridad, los criminales cibernéticos también pueden empezar a usarla para desarrollar malware más inteligente y amenazas más eficaces.
Esta es sencillamente la razón por la que se necesita un enfoque donde las soluciones de seguridad para redes, accesos, dispositivos, aplicaciones, centros de datos y nube trabajen en conjunto como un todo integrado y de colaboración, combinado con inteligencia ejecutable para mantener una postura fuerte de seguridad autónoma y defensa automatizada.
-¿Se puede engañar a los algoritmos de la inteligencia artificial, por ejemplo, para que vean cosas que no existen?
-No existen mecanismos que garanticen el 100% de seguridad y la inteligencia artificial no es la excepción. Solo la multiplicidad y eficiencia en los controles desalienta el engaño y nos acerca a un entorno seguro. Es posible vulnerar una o dos barreras, pero no cincuenta, y es por eso que una buena estrategia de seguridad es la clave del éxito.
Xiaomi lanza su Mi 9 para competir con el iPhone y el Galaxy S10
-¿Estas técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos phishing o ciberestafa, que involucra reunir y usar los datos personales de las víctimas?
-Los datos son el petróleo del futuro. Mientras más información tenga el estafador, más eficiente y más chances de éxito tendrá en su ciberestafa. Las técnicas de automatización harán que los ataques sean cada vez más dirigidos, más enfocados, más creíbles y resultará cada vez más difícil evitar el engaño.
La inteligencia artificial y el aprendizaje mecánico se han vuelto aliados significativos para la ciberseguridad y como ya dijimos, también para los cibercriminales. El aprendizaje mecánico es nutrido por los dispositivos repletos de información del IoT y por las aplicaciones predictivas. Pero asegurar esas "cosas" e información, las cuales son objetivos o puntos de entrada ya listos para los cibercriminales, es un desafío por sí mismo.
-En los próximos años, las máquinas serán más capaces de recolectar e implementar estos datos por sí mismas. Los sistemas de IA también son cada vez más capaces de generar contenido de audio y video verosímil por su cuenta. ¿Esto facilitará que quienes tengan malas intenciones?
-Sí, toda esta tecnología podrá ser utilizada con fines malintencionados. La siguiente generación de malware "consciente" utilizará inteligencia artificial para comportarse como un humano, realizar actividades de reconocimiento, identificar objetivos, elegir los métodos de ataque y evadir de forma inteligente los sistemas de detección.
Mejorar la calidad de la inteligencia contra amenazas es sumamente importante ya que los equipos de TI transfieren cada vez más control a la inteligencia artificial para poder responder de manera automatizada y más rápida a las intrusiones.
WhatsApp: polémica modificación en los estados de los usuarios
-¿Qué medidas deben tomar las organizaciones para prevenir estos usos malintencionados?
-Desde el punto de vista de la ciberseguridad, la inteligencia artificial ayuda fundamentalmente a procesar grandes volúmenes de información. Hoy vemos en las empresas que tienen grandes cantidades de registros de lo que está pasando en sus redes, pero los analistas no tienen el tiempo y en algunos casos la tecnología adecuada para poder hacer un análisis de toda esa información que obtienen de sus propios sistemas de monitoreo de seguridad.
Entonces es posible que algún ataque que se haya introducido de manera sigilosa se pierda de vista por la incapacidad de analizar ese volumen de información. Entonces lo que se está haciendo es nutrir a la IA con información de estos tipos de variables de "entradas" y con información sobre ciberamenazas, patrones comprometidos, tipos de vulnerabilidades, etc. (lo que se denomina Threat Intelligence) para que las redes puedan correlacionarlas.
La IA lo analiza a velocidad digital y entonces podemos obtener una vista más elaborada para tomar una acción de forma automatizada o para que un analista pueda tomar una acción con la información ya procesada y más enfocada.
Con el objetivo de ayudar a las organizaciones en este sentido, Fortinet presentó la próxima generación de inteligencia y detección de amenazas con el lanzamiento de FortiGuard IA.
FortiGuard IA está integrado en la plataforma de servicios de inteligencia de amenazas de Fortinet y ofrece análisis y detección de amenazas automatizados para garantizar que las soluciones del Fortinet Security Fabric se actualicen continuamente para protegerse de las amenazas más recientes en un entorno de ataques en rápida expansión.
-¿Qué principios deben adoptar las organizaciones al diseñar, desarrollar o utilizar la inteligencia artificial? Por ejemplo, los derechos humanos.
-La IA es una tecnología increíble que presenta oportunidades extraordinarias para proteger redes y, a la larga, a Internet. A medida que ésta se vuelve más sofisticada, pero a la vez más común su uso, queda clara una verdad importante: el valor, el poder y la eficacia de la IA no se debe a su capacidad de reemplazar a los seres humanos.
De hecho, la inteligencia artificial hace todo lo contrario. Tanto la automatización como la IA acentúan la importancia del conocimiento y la experiencia humana como algo central y crítico para el éxito. La innovación no es sustractiva, es multiplicativa.