
In einer Enthüllung, die die wachsenden Komplexitäten bei der Regulierung generativer KI im Verteidigungssektor unterstreicht, wurden Berichte bestätigt, wonach die National Security Agency (NSA) das KI-Tool „Mythos“ von Anthropic aktiv nutzt. Dieser Einsatz erfolgt trotz der jüngsten Aufnahme von Anthropic durch das Pentagon in eine Liste der Risiken in der Lieferkette, was zu einem bemerkenswerten Spannungsfeld zwischen Geheimdienstoperationen und der Beschaffungspolitik im Verteidigungsbereich führt. Als primäre Behörde für Signalaufklärung und Cybersicherheit signalisiert die Entscheidung der NSA, hochmoderne KI-Modelle zu integrieren, einen dringenden operativen Bedarf, der in einigen Fällen die Leistungsfähigkeit über die administrative Einstufung stellen kann.
Anthropic, weithin anerkannt für seinen Schwerpunkt auf „konstitutioneller KI“ und sicherheitsorientierten Sprachmodellen, hat die Mythos Preview als hochleistungsfähiges generatives Werkzeug eingeführt, das in der Lage ist, riesige Mengen an Nachrichtendienstdaten mit erweiterten Fähigkeiten zur Schlussfolgerung zu verarbeiten. Für die Nachrichtendienst-Community ist das Versprechen solcher Werkzeuge transformativ: der Übergang von manueller Datenverarbeitung zu automatisierter, hochgradiger Synthese verschiedener Multi-Quellen-Berichte.
Der interne Einsatz von Mythos soll NSA-Analysten dabei helfen, komplexe bürokratische Datenströme zu bewältigen und Muster zu identifizieren, die herkömmliche Altsysteme möglicherweise übersehen. Die Effektivität des Werkzeugs ist jedoch ein zweischneidiges Schwert, da ihr Nutzen der Undurchsichtigkeit ihrer Trainingsdaten und der Unternehmensinfrastruktur gegenübersteht.
Die Entscheidung des Pentagons, Anthropic als „Risiko für die Lieferkette“ einzustufen, basiert auf einem strengen, wenn auch starren Rahmenwerk, das darauf ausgelegt ist, Anbieter auf potenzielle ausländische Einflussnahme, Bedenken hinsichtlich der Datensouveränität und architektonische Abhängigkeiten zu prüfen. Die Einstufung verbietet die Nutzung solcher Modelle zwar nicht ausdrücklich, schafft jedoch erhebliche regulatorische Hürden für Komponenten des Verteidigungsministeriums (DoD).
Ein kurzer Vergleich zwischen den Anforderungen des Nachrichtendienstes und den aktuellen Erkenntnissen zur Lieferkette ist nachfolgend aufgeführt:
| Bewertungskriterien | DoD-Standard für die Lieferkette | Beobachtete Risikofaktoren |
|---|---|---|
| Datensouveränität | Vollständige US-basierte Cloud-Isolierung erforderlich | Transparenz der Cloud-Infrastruktur |
| Ethische Ausrichtung | Verfassungskonforme Modelle | Abhängigkeit von nicht geprüften Trainingsdatensätzen |
| Beschaffungspolitik | Schwarze Liste oder eingeschränkter Status | Anbieterintegration und grenzüberschreitende Partnerschaften |
Der fortgesetzte Zugang der NSA zu Anthropics Werkzeugen trotz der Einstufung durch das Pentagon wirft grundlegende Fragen darüber auf, wie die US-Regierung die Einführung von KI verwaltet. Die NSA operiert unter einem anderen Mandat als das breitere DoD und benötigt häufig den Einsatz der fortschrittlichsten verfügbaren Technologie, um einen Informationsvorsprung gegenüber staatlichen Akteuren zu wahren.
Branchenanalysten vermuten, dass die NSA möglicherweise „Walled-Garden“-Implementierungen nutzt – bei denen die KI von externen Netzwerken isoliert (sandboxed) ist –, um die vom Pentagon identifizierten Risiken zu mindern. Durch den Einsatz von Mythos in einer netzwerkisolierten oder hochkontrollierten Umgebung umgeht die Behörde effektiv die Risiken, die typischerweise mit generativer KI von Drittanbietern generative AI verbunden sind, wie z. B. Datenlecks oder Modell-Vergiftung, während sie gleichzeitig die Vorteile der Technologie nutzt.
Die Diskrepanz zwischen der NSA und dem Pentagon bezüglich der Software von Anthropic stellt einen breiteren Konflikt innerhalb der US-Bundesregierung dar: den dringenden Bedarf, die KI-Beschaffung zu standardisieren, versus die Notwendigkeit, technologisch agil zu bleiben. Wenn Nachrichtendienste gezwungen sind, zwischen strikter administrativer Compliance und operativer Überlegenheit zu wählen, werden sie mit ziemlicher Sicherheit Letzteres bevorzugen, vorausgesetzt, sie können interne technologische Schutzmaßnahmen implementieren.
Darüber hinaus dient diese Situation als Katalysator für potenzielle politische Reformen. Zukünftige Beschaffungszyklen werden sich wahrscheinlich in Richtung einer „risikoadjustierten Einführung“ verschieben, bei der der Fokus nicht nur darauf liegt, ob ein Unternehmen auf einer schwarzen Liste steht, sondern auf der technischen Architektur der KI-Implementierung selbst. Der Schritt der NSA legt nahe, dass sich die Definition von „sicher“ im Zeitalter der generativen KI von einer binären „sicher/unsicher“-Kennzeichnung zu einer dynamischen, konfigurationsbasierten Bewertung entwickelt.
Es ist unwahrscheinlich, dass die Situation um die NSA und Mythos AI einfach verschwindet. Mit zunehmender politischer Prüfung wird Transparenz zur Hauptwährung für KI-Anbieter, die Regierungsaufträge anstreben. Für Anthropic wird die Herausforderung darin bestehen, ihre Unternehmensstruktur und Entwicklungspraktiken mit den zunehmend strengen Anforderungen der Supply-Chain-Sicherheitseinheiten des DoD in Einklang zu bringen.
Bei Creati.ai betrachten wir diese Spannung als eine natürliche Evolution im Lebenszyklus disruptiver Technologie. Die Bereitschaft der NSA, diese Technologie einzusetzen, unterstreicht, dass trotz vorhandener Risiken das Potenzial zur Steigerung der Nachrichtendienstkapazitäten als Gebot angesehen wird, das die administrative Vorsicht überwiegt. Für die Zukunft muss die Branche beobachten, wie das Pentagon seine Beschaffungsrahmen anpasst, um die dynamische Natur der KI besser zu integrieren und sicherzustellen, dass Sicherheitsprotokolle nicht versehentlich genau die Werkzeuge ersticken, die zum Schutz der Nation erforderlich sind.