
Ein neuer Bericht von Amazon Threat Intelligence hat eine beunruhigende Entwicklung in der Cyberkriminalität aufgedeckt: Ein russischsprachiger Bedrohungsakteur hat kommerzielle generative KI-Tools (Generative AI) genutzt, um in über 600 FortiGate-Firewalls in 55 Ländern einzubrechen. Die Kampagne, die zwischen dem 11. Januar und dem 18. Februar 2026 beobachtet wurde, verdeutlicht, wie künstliche Intelligenz die Eintrittshürden für Angreifer senkt und es ihnen ermöglicht, ihre Operationen mit industrieller Effizienz zu skalieren.
Laut CJ Moses, Chief Information Security Officer bei Amazon Integrated Security, nutzte der Angreifer eine „KI-gestützte Montagestraße“ (AI-powered assembly line), um komplexe Aufgaben zu automatisieren, von der Codierung von Aufklärungsskripten bis hin zur Planung von Lateral Movement (seitliche Ausbreitung). Während der Bedrohungsakteur nur eine begrenzte technische Raffinesse an den Tag legte, fungierte der Einsatz von KI als starker Kraftmultiplikator, der es ihm ermöglichte, kritische Infrastrukturen zu kompromittieren, ohne auf fortschrittliche Exploits oder Zero-Day-Schwachstellen (Zero-day vulnerabilities) angewiesen zu sein.
Die Amazon-Untersuchung hebt eine kritische Verschiebung in der Bedrohungslandschaft hervor. Der Angreifer, der als finanziell motiviert und nicht als staatlich unterstützt eingestuft wurde, verließ sich stark auf mehrere kommerzielle generative KI-Plattformen. Diese Tools wurden verwendet, um Angriffsskripte zu erstellen, die Befehlsausführung zu orchestrieren und sogar Fehler während des Eindringungsprozesses zu beheben.
Amazon-Forscher entdeckten eine öffentlich zugängliche Infrastruktur, die von den Angreifern verwaltet wurde und eine Fülle von KI-generierten Artefakten beherbergte. Dies umfasste Quellcode für maßgeschneiderte Hacking-Tools, Netzwerkkonfigurationen der Opfer und detaillierte Angriffspläne. Die Abhängigkeit von KI war so groß, dass der Angreifer bei Nichtverfügbarkeit des primären KI-Tools nahtlos auf eine sekundäre Plattform wechselte, um den Betrieb fortzusetzen.
Die maßgeschneiderten Aufklärungstools, die sowohl in Go als auch in Python geschrieben wurden, wiesen deutliche Merkmale einer KI-Generierung auf. Amazons Analyse des Quellcodes enthüllte „redundante Kommentare, die lediglich Funktionsnamen wiederholen, eine vereinfachte Architektur mit unverhältnismäßig hohem Aufwand für die Formatierung anstelle der Funktionalität und naives JSON-Parsing“. Diese Merkmale deuten darauf hin, dass dem Akteur die Programmierkenntnisse fehlten, um diese Tools manuell zu erstellen, er aber erfolgreich ein KI-Modell dazu brachte, sie nach Vorgaben zu bauen.
Im Gegensatz zu Befürchtungen, dass KI neuartige Zero-Day-Exploits entwickelt, war diese Kampagne durch rücksichtslose Effizienz erfolgreich, die auf grundlegende Sicherheitslücken abzielte. Der Bedrohungsakteur nutzte keine spezifischen Software-Schwachstellen von FortiGate aus. Stattdessen führten sie massenhafte automatisierte Scans nach Management-Schnittstellen durch, die auf den Ports 443, 8443, 10443 und 4443 exponiert waren.
Sobald ein Ziel identifiziert war, versuchte der Akteur, sich mit Standard- oder häufig wiederverwendeten Anmeldedaten auf Geräten ohne Multi-Faktor-Authentifizierung (MFA) anzumelden. Wenn sich ein Ziel als schwierig erwies – etwa durch gepatchte Dienste oder geschlossene Ports –, zog der Angreifer einfach weiter und priorisierte „leichte Beute“ gegenüber Beharrlichkeit.
Wichtige technische Beobachtungen:
212.11.64[.]250.Der Umfang des Angriffs war wahllos und branchenunabhängig und betraf Organisationen in Südasien, Lateinamerika, der Karibik, Westafrika, Nordeuropa und Südostasien. Die weitverbreitete Natur der Kampagne deutet auf einen automatisierten „Spray and Pray“-Ansatz hin, der durch KI-Verarbeitung verstärkt wurde.
Amazon stuft diese Aktivität als eine Pre-Ransomware-Vorbereitungsoperation (Pre-ransomware) ein. Die Angreifer konzentrierten sich auf das Extrahieren von Administrationspasswörtern, das Kartieren des Netzwerks und das Kompromittieren von Backup-Systemen – klassische Vorläufer für einen verheerenden Ransomware-Einsatz. Durch die Kompromittierung von Veeam-Backup-Servern beabsichtigten die Akteure wahrscheinlich, Wiederherstellungsoptionen zu deaktivieren und so den Druck für künftige Erpressungsforderungen zu erhöhen.
Die folgende Tabelle veranschaulicht, wie die Integration von generativer KI die Fähigkeiten dieses spezifischen Bedrohungsakteurs im Vergleich zu einem traditionellen, wenig qualifizierten Angreifer verändert hat.
Vergleich der Angreifer-Fähigkeiten
| Operationaler Aspekt | Traditioneller, wenig qualifizierter Akteur | KI-erweiterter Bedrohungsakteur (Beobachtet) |
|---|---|---|
| Tool-Entwicklung | Verlässt sich auf bestehende Skripte; unfähig, Code zu ändern. | Generiert maßgeschneiderte Go/Python-Tools über KI-Prompts. |
| Angriffsskalierung | Manuelles oder langsames automatisiertes Scannen. | „Montagestraße“-Automatisierung in 55 Ländern. |
| Anpassungsfähigkeit | Bleibt stehen, wenn Standardtools versagen. | Nutzt KI zur Fehlerbehebung und zur Generierung von Fallback-Befehlen. |
| Zielauswahl | Oft opportunistisch, aber ineffizient. | Filtert schnell nach „weichen“ Zielen; bricht bei gehärteten Zielen ab. |
| Post-Exploitation | Kämpft mit Lateral Movement. | KI unterstützt bei der Navigation in Active Directory und Backups. |
Diese Kampagne dient als Weckruf für Organisationen, die auf „Sicherheit durch Unklarheit“ (Security through obscurity) setzen. Die Fähigkeit von wenig qualifizierten Akteuren, Angriffe mithilfe von KI zu skalieren, bedeutet, dass einfache Fehlkonfigurationen nun Schwachstellen sind, die mit Maschinengeschwindigkeit entdeckt und ausgenutzt werden.
CJ Moses betonte, dass starke defensive Grundlagen weiterhin die effektivste Gegenmaßnahme sind. „Da wir erwarten, dass sich dieser Trend im Jahr 2026 fortsetzt, sollten Organisationen damit rechnen, dass KI-erweiterte Bedrohungsaktivitäten weiter zunehmen werden“, erklärte Moses.
Empfohlene Abhilfemaßnahmen:
Da generative KI (Generative AI) weiter ausreift, verschwimmt die Unterscheidung zwischen „qualifizierten“ und „unqualifizierten“ Hackern. Dieser Vorfall bestätigt, dass KI nicht nur ein Werkzeug für Verteidiger ist, sondern ein mächtiger Hebel für Angreifer, der in der Lage ist, einen Anfänger in eine globale Bedrohung zu verwandeln.