
Un nuevo informe de Amazon Threat Intelligence ha revelado una evolución preocupante en el cibercrimen: un actor de amenazas de habla rusa ha aprovechado herramientas comerciales de IA generativa (Generative AI) para vulnerar más de 600 cortafuegos FortiGate en 55 países. La campaña, observada entre el 11 de enero y el 18 de febrero de 2026, ejemplifica cómo la inteligencia artificial está reduciendo la barrera de entrada para los atacantes, permitiéndoles escalar operaciones con eficiencia industrial.
Según CJ Moses, director de seguridad de la información de Amazon Integrated Security, el atacante utilizó una "línea de ensamblaje impulsada por IA" para automatizar tareas complejas, desde la codificación de scripts de reconocimiento hasta la planificación del movimiento lateral. Aunque el actor de amenazas mostró una sofisticación técnica limitada, el uso de la IA actuó como un potente multiplicador de fuerza, permitiéndole comprometer infraestructura crítica sin depender de exploits avanzados o vulnerabilidades de día cero (zero-day).
La investigación de Amazon destaca un cambio crítico en el panorama de amenazas. El adversario, identificado como motivado financieramente en lugar de estar patrocinado por un estado, dependió en gran medida de múltiples plataformas comerciales de IA generativa. Estas herramientas se utilizaron para generar scripts de ataque, orquestar la ejecución de comandos e incluso solucionar errores durante el proceso de intrusión.
Los investigadores de Amazon descubrieron una infraestructura de acceso público gestionada por los atacantes que albergaba un tesoro de artefactos generados por IA. Esto incluía código fuente de herramientas de hacking personalizadas, configuraciones de red de las víctimas y planes de ataque detallados. La dependencia de la IA era tan fuerte que, cuando la herramienta de IA principal no estaba disponible, el atacante cambiaba sin problemas a una plataforma secundaria para continuar con las operaciones.
Las herramientas de reconocimiento personalizadas, escritas tanto en Go como en Python, presentaban sellos distintivos de generación por IA. El análisis de Amazon del código fuente reveló "comentarios redundantes que simplemente reiteran los nombres de las funciones, una arquitectura simplista con una inversión desproporcionada en el formato sobre la funcionalidad y un análisis de JSON ingenuo". Estas características sugieren que el actor carecía de la destreza de codificación para construir estas herramientas manualmente, pero logró inducir a un modelo de IA para que las construyera según sus especificaciones.
Contrario a los temores de que la IA desarrolle nuevos exploits de día cero, esta campaña tuvo éxito a través de una eficiencia implacable dirigida a brechas de seguridad fundamentales. El actor de amenazas no explotó vulnerabilidades de software específicas de FortiGate. En su lugar, realizó un escaneo automatizado masivo en busca de interfaces de gestión expuestas en los puertos 443, 8443, 10443 y 4443.
Una vez identificado un objetivo, el actor intentaba autenticarse utilizando credenciales predeterminadas o comúnmente reutilizadas en dispositivos que carecían de autenticación de múltiples factores (Multi-factor authentication - MFA). Si un objetivo resultaba difícil —como tener servicios parcheados o puertos cerrados—, el atacante simplemente pasaba al siguiente, priorizando las "presas fáciles" sobre la persistencia.
Observaciones técnicas clave:
212.11.64[.]250.El alcance del ataque fue indiscriminado y agnóstico al sector, afectando a organizaciones en el sur de Asia, América Latina, el Caribe, África occidental, el norte de Europa y el sudeste asiático. La naturaleza generalizada de la campaña indica un enfoque automatizado de "disparar y rezar" (spray and pray) potenciado por el procesamiento de IA.
Amazon clasifica esta actividad como una operación de preparación de pre-ransomware. Los atacantes se centraron en extraer contraseñas administrativas, mapear la red y comprometer los sistemas de respaldo, precursores clásicos de un despliegue devastador de ransomware. Al comprometer los servidores de respaldo de Veeam, los actores probablemente pretendían deshabilitar las opciones de recuperación, aumentando así la presión para futuras demandas de extorsión.
La siguiente tabla ilustra cómo la integración de la IA generativa transformó las capacidades de este actor de amenazas específico en comparación con un adversario tradicional de baja cualificación.
Comparación de las capacidades de los adversarios
| Aspecto operativo | Actor tradicional de baja cualificación | Actor de amenazas aumentado por IA (observado) |
|---|---|---|
| Desarrollo de herramientas | Depende de scripts preexistentes; incapaz de modificar el código. | Genera herramientas personalizadas en Go/Python mediante prompts de IA. |
| Escala del ataque | Escaneo manual o automatizado lento. | Automatización de "línea de ensamblaje" en 55 países. |
| Adaptabilidad | Se detiene cuando las herramientas estándar fallan. | Utiliza la IA para solucionar problemas y generar comandos de respaldo. |
| Selección de objetivos | A menudo oportunista pero ineficiente. | Filtra rápidamente objetivos "blandos"; abandona los robustecidos. |
| Post-explotación | Tiene dificultades con el movimiento lateral. | La IA asiste en la navegación por Active Directory y copias de seguridad. |
Esta campaña sirve como una llamada de atención para las organizaciones que confían en la "seguridad a través de la oscuridad". La capacidad de los actores de baja cualificación para escalar ataques utilizando la IA significa que las desconfiguraciones básicas son ahora vulnerabilidades que serán descubiertas y explotadas a velocidad de máquina.
CJ Moses enfatizó que los fundamentos defensivos sólidos siguen siendo la contramedida más eficaz. "Como esperamos que esta tendencia continúe en 2026, las organizaciones deben anticipar que la actividad de amenazas aumentada por IA seguirá creciendo", afirmó Moses.
Mitigaciones recomendadas:
A medida que la IA generativa continúa madurando, la distinción entre hackers "cualificados" y "no cualificados" se está desdibujando. Este incidente confirma que la IA no es solo una herramienta para los defensores, sino una palanca potente para los adversarios, capaz de convertir a un novato en una amenaza global.