
In einer Enthüllung, die die wachsende Kluft zwischen Washingtons politischen Richtlinien und den operativen Realitäten der modernen Kriegsführung offenlegt, bestätigen Berichte, dass das US-Militär während der massiven Luftangriffe auf den Iran am Samstag stark auf Anthropics Claude KI angewiesen war. Diese Nutzung erfolgte nur wenige Stunden nachdem Präsident Donald Trump einen weitreichenden Präsidialerlass herausgegeben hatte, der das Tool in allen Bundesbehörden verbot.
Die Operation, die auf wichtige iranische Raketenstandorte und die Führungs- und Kontrollinfrastruktur abzielte, wurde mit einer Präzision ausgeführt, die teilweise den von Claude verarbeiteten fortgeschrittenen Geheimdienstbewertungen zugeschrieben wird. Der Vorfall verdeutlicht einen eklatanten Widerspruch: Genau die Technologie, die am Freitagabend vom Oberbefehlshaber als „Risiko für die nationale Sicherheit“ eingestuft wurde, war am Samstagmorgen maßgeblich an der Durchführung eines der bedeutendsten militärischen Engagements des Jahrzehnts beteiligt.
Die Abfolge der Ereignisse, die zu den Angriffen führten, verdeutlicht die Reibungen zwischen schneller technologischer Integration und bürokratischer Regierungsführung. Am Freitag, den 27. Februar 2026, eskalierte das Weiße Haus seine monatelange Fehde mit Anthropic. Unter Hinweis auf die Weigerung des Unternehmens, ethische „rote Linien“ in Bezug auf autonome tödliche Gewalt zu entfernen, ordnete Präsident Trump die sofortige Einstellung aller Regierungsverträge mit dem in San Francisco ansässigen KI-Unternehmen an.
Verteidigungsminister Pete Hegseth bekräftigte diese Richtlinie am späten Freitagabend und stufte Anthropic offiziell als „Lieferkettenrisiko“ ein – eine Klassifizierung, die historisch ausländischen Gegnern wie Huawei vorbehalten war. Doch als am Samstag die Sonne über dem Nahen Osten aufging, befand sich das US Central Command (CENTCOM) bereits tief in der operativen Phase der Angriffe und nutzte die verbotene Software zur Verarbeitung von Schlachtfelddaten in Echtzeit.
Die folgende Tabelle skizziert die widersprüchlichen Richtlinien und Maßnahmen, die dieses chaotische 24-Stunden-Zeitfenster definierten:
Richtlinie vs. Realität: Der 24-Stunden-Konflikt
---|---|----
Politische Richtlinie (Freitag)|Operative Realität (Samstag)|Ergebnis
Präsidialerlass: Sofortige Einstellung aller Anthropic-Tools.|CENTCOM-Nutzung: Fortgesetzte Nutzung von Claude für Echtzeit-Informationen.|Direkter Verstoß gegen den Präsidialerlass während aktiver Kampfhandlungen.
DoD-Klassifizierung: „Lieferkettenrisiko“ und „Bedrohung der nationalen Sicherheit“.|Abhängigkeit auf dem Schlachtfeld: Verwendet für Zielidentifizierung und Szenariosimulation.|Nachgewiesene Abhängigkeit von „verbotener“ Technologie für den Missionserfolg.
Status der Anbieter: Alle Auftragnehmer angewiesen, Verbindungen zu trennen.|Integrationsgrad: Tief in die Befehlsabläufe eingebettet.|Sofortige Entfernung als operativ unmöglich erachtet.
Laut Quellen aus dem Verteidigungsbereich ging die spezifische Anwendung von Claude während der Angriffe auf den Iran weit über grundlegende administrative Aufgaben hinaus. Das KI-Modell wurde Berichten zufolge eingesetzt, um riesige Mengen an Satellitenbildern, Signalerfassung (SIGINT) und Open-Source-Daten zu synthetisieren, um lebensfähige Ziele innerhalb des komplexen iranischen Luftverteidigungsnetzes zu identifizieren.
Militärinsider deuten darauf hin, dass Claudes Fähigkeit, „unstrukturierte“ Daten zu verarbeiten, den Planern einen entscheidenden Geschwindigkeitsvorteil verschaffte. In den Stunden vor dem Angriff unterstützte die KI bei:
Die Abhängigkeit von Claude für diese tödlichen Anwendungen widerspricht direkt den eigenen Nutzungsbedingungen von Anthropic, die die Verwendung ihrer Modelle für „gewalttätige Zwecke“ oder die „Waffenentwicklung“ streng untersagen. Dies deutet darauf hin, dass das Pentagon möglicherweise eine „jailbroken“ oder lokalisierte Version des Modells verwendet hat oder die ethischen Einschränkungen des Anbieters in der Hitze des Gefechts schlichtweg ignoriert hat.
Das von Präsident Trump ausgesprochene Verbot war nicht nur prozedural, sondern ideologisch begründet. Die Regierung hat Anthropic häufig für seinen Ansatz der „Konstitutionellen KI“ (Constitutional AI) kritisiert, der Sicherheitsprinzipien einbettet, die das Weiße Haus als „woke“ Hindernisse für die amerikanische militärische Dominanz betrachtet.
Auf Truth Social beschimpfte der Präsident das Unternehmen als „Radical Left“-Organisation und argumentierte, dass die Weigerung, dem Pentagon uneingeschränkten Zugriff auf seinen Code zu gewähren, einen Verrat darstelle. Die Position der Regierung ist klar: In Kriegszeiten muss das US-Militär die absolute Kontrolle über sein digitales Arsenal haben, ungehindert von den moralischen Bedenken der Ingenieure aus dem Silicon Valley.
Diese politische Haltung gipfelte in dem am Freitag von Minister Hegseth übermittelten Ultimatum. Die Forderung war einfach: Anthropic muss auf seine „roten Linien“ verzichten – insbesondere auf jene, die eine autonome Zielerfassung ohne menschliche Aufsicht verhindern – oder mit einer vollständigen Aufnahme in die schwarze Liste des Bundes rechnen. Als CEO Dario Amodei ablehnte, wurde das Verbot unterzeichnet.
Der Vorfall hat eine stille, aber intensive Krise innerhalb des Pentagons ausgelöst. Während die politische Führung unter Hegseth mit dem Verbot des Präsidenten übereinstimmt, stehen die uniformierte Führung und die operativen Befehlshaber vor einer anderen Realität. Für sie sind KI-Tools wie Claude so unverzichtbar geworden wie GPS.
„Man kann eine grundlegende Geheimdienstschicht nicht einfach sechs Stunden vor einem Angriff ‚deinstallieren‘“, bemerkte ein Verteidigungsanalyst. „Das Weiße Haus behandelte dies wie das Löschen einer App von einem Telefon, aber in Wirklichkeit ist es eher so, als würde man die Verkabelung eines Hauses herausreißen, während das Licht brennt.“
Diese Diskrepanz deutet darauf hin, dass zwar der politische Wille vorhanden ist, sich von „ethisch eingeschränkten“ KI-Anbietern abzuwenden, der technische Übergang jedoch viel langsamer erfolgt. Die unmittelbare Folge war ein Ansturm von Wettbewerbern, um die Lücke zu füllen, wobei OpenAI Berichten zufolge nur wenige Stunden nach Bekanntgabe des Anthropic-Verbots ein geheimes Geschäft über den Einsatz seiner Modelle in Systemen des Verteidigungsministeriums (DoD) abschloss.
Die Ereignisse dieses Wochenendes dienen als kritisches Fallbeispiel für die Zukunft der KI-Governance. Das „Anthropic-Paradoxon“ – bei dem ein Werkzeug gleichzeitig ein verbotenes Sicherheitsrisiko und ein kritisches Gut für die Kriegsführung ist – entlarvt die Fragilität der aktuellen KI-Beschaffungsrichtlinien.
Wichtige Erkenntnisse für die Verteidigungsindustrie sind:
Während sich der Staub über den Zielen im Iran legt, beginnt der Kampf in Washington erst. Es wird erwartet, dass die Regierung eine Untersuchung gegen den Widerstand von CENTCOM gegen das Verbot einleitet, was potenziell zu Militärgerichtsverfahren oder Rücktritten führen könnte. Der stille Sieg gehört jedoch dem Algorithmus: Unabhängig von der Politik war die KI in den Prozess eingebunden, und sie hat funktioniert.
Die US-Angriffe auf den Iran haben die geopolitische Landschaft verändert, aber sie haben auch eine neue Kampflinie im heimischen Technologiesektor gezogen. Die Nutzung von Anthropics Claude KI in direktem Verstoß gegen einen Präsidialerlass beweist, dass in der modernen Ära technologische Kapazität oft die politische Autorität außer Kraft setzt.
Für Creati.ai markiert dies einen Wendepunkt. Die Ära der „Dual-Use“-KI (Generative AI) – in der dasselbe Modell Gedichte schreibt und Luftangriffe plant – könnte zu Ende gehen. An ihre Stelle tritt eine Aufspaltung der Branche in „zivil-sichere“ KI und „militärische“ Werkzeuge, wobei die US-Regierung verlangt, dass ihre Silizium-Soldaten Befehlen genauso blind folgen wie ihre menschlichen.