
Washington, D.C. — In einer historischen und beispiellosen Eskalation des Konflikts zwischen KI-Laboren im Silicon Valley und der Bundesregierung hat das Kriegsministerium (Department of War, ehemals Verteidigungsministerium) seinen 200-Millionen-Dollar-Vertrag mit Anthropic gekündigt. Dieser Schritt erfolgt, nachdem das Unternehmen für KI-Sicherheit (AI Safety) sich geweigert hatte, betriebliche Beschränkungen für den Einsatz seiner Modelle in autonomen Waffensystemen und zur Massenüberwachung aufzuheben.
In einer gestern spät erlassenen Richtlinie stufte Kriegsminister Pete Hegseth Anthropic offiziell als „Lieferkettenrisiko für die nationale Sicherheit“ (Supply-Chain Risk to National Security) ein – eine Bezeichnung, die historisch ausländischen Gegnern und Telekommunikationsanbietern vorbehalten war, die als feindlich gegenüber US-Interessen gelten. Die Einstufung löst ein sofortiges Verbot aller kommerziellen Interaktionen zwischen dem riesigen Netzwerk von Auftragnehmern des US-Militärs und dem in San Francisco ansässigen KI-Unternehmen aus.
Die Kündigung markiert den Höhepunkt eines monatelangen Streits über die ethischen „roten Linien“, die in Anthropics Flaggschiff-Modell Claude eingebettet sind. Während das Pentagon einen „uneingeschränkten“ Zugang zu Frontier-KI-Modellen anstrebte, um die strategische Dominanz zu wahren, hat Anthropic sich standhaft geweigert, seine Nutzungsrichtlinie (Acceptable Use Policy, AUP) anzupassen, um spezifische tödliche Anwendungen und Überwachungsszenarien zu ermöglichen.
Quellen, die den Verhandlungen nahestehen, berichten, dass das Kriegsministerium die Entfernung von Schutzmaßnahmen forderte, die verhindern, dass Claude zur Steuerung vollautonomer Drohnen oder zur massenhaften Analyse inländischer Kommunikationsdaten verwendet wird. Anthropic-CEO Dario Amodei lehnte diese Bedingungen Berichten zufolge mit der Begründung ab, das Unternehmen könne es „nicht mit gutem Gewissen“ zulassen, dass seine Technologie auf eine Weise eingesetzt wird, die demokratische Werte untergraben könnte oder der es an einer sinnvollen menschlichen Aufsicht mangelt.
„Dies ist kein Versagen der Leistungsfähigkeit, sondern ein Zusammenprall von Prinzipien“, sagte ein leitender Analyst von Creati.ai. „Anthropic setzt effektiv seine Geschäftstätigkeit auf die Idee, dass KI-Sicherheit nicht verhandelbar ist, selbst wenn der Kunde das mächtigste Militär der Welt ist.“
Die bedeutendste Entwicklung ist nicht der Verlust des Vertrags selbst, sondern die Anwendung der Befugnis zum „Lieferkettenrisiko“ gegen ein einheimisches amerikanisches Unternehmen. Der Befehl von Minister Hegseth geht weit über eine einfache Stornierung von Dienstleistungen hinaus.
Wichtige Auswirkungen der Einstufung:
Rechtsgelehrte haben bereits die Gültigkeit der Nutzung von Lieferketten-Befugnissen infrage gestellt, die eigentlich dazu gedacht sind, ausländische Spionage und Sabotage zu verhindern, um einen inländischen Vertragsstreit über ethische Richtlinien zu bestrafen. Anthropic hat geschworen, die Einstufung vor einem Bundesgericht anzufechten, und beschrieb sie eher als „ideologische Vergeltung“ denn als echte Sicherheitsbewertung.
Während Anthropic aus dem Portfolio des Pentagons ausscheidet, hat das Konkurrenzlabor OpenAI schnell gehandelt, um seine Position als primärer KI-Partner des Militärs zu festigen. Berichte deuten darauf hin, dass OpenAI Bedingungen zugestimmt hat, die Anthropic abgelehnt hatte, was zu einer lukrativen neuen Vereinbarung über den Einsatz von GPT-4-basierten Systemen in klassifizierten Netzwerken führte.
Der Übergang hat eine erbitterte öffentliche Fehde zwischen den beiden KI-Giganten ausgelöst. Nach Berichten über den neuen Deal von OpenAI veröffentlichte Dario Amodei ein scharfes internes Memo, von dem Teile an Tech-Medien durchgesickert sind. Amodei warf OpenAI vor, „Sicherheitstheater“ zu betreiben, und charakterisierte deren öffentliche Botschaften bezüglich militärischer Schutzmaßnahmen als „glatte Lügen“.
„OpenAI präsentiert sich als Friedensstifter, während sie Verträge unterzeichnen, die genau jene Sicherheitsstandards untergraben, die sie angeblich aufrechterhalten“, schrieb Amodei. Er behauptete, dass die Vereinbarung von OpenAI wahrscheinlich „Schlupflöcher“ enthalte, die Beschränkungen für autonome Tödlichkeit faktisch aufheben, eine Behauptung, die OpenAI vehement zurückgewiesen hat, mit der Erklärung, ihre Partnerschaft konzentriere sich ausschließlich auf „rechtmäßige defensive Anwendungen“.
Das Blacklisting von Anthropic sendet ein beunruhigendes Signal an das breitere KI-Ökosystem. Es deutet darauf hin, dass die US-Regierung nicht länger bereit ist, „ethische Reibungen“ seitens ihrer Technologieanbieter zu tolerieren. Für Risikokapital-finanzierte KI-Startups ist die Botschaft klar: Die Ausrichtung an den Zielen des Kriegsministeriums ist nun eine Voraussetzung für die Rentabilität im öffentlichen Sektor.
Die folgende Tabelle skizziert die unterschiedlichen Wege der großen KI-Labore in Bezug auf die militärische Zusammenarbeit Stand März 2026:
Status der großen KI-Labore beim Kriegsministerium
| Name des Labors | Vertragsstatus | Haltung zu tödlicher Autonomie |
|---|---|---|
| Anthropic | Gekündigt / Auf der schwarzen Liste | Striktes Verbot über konstitutionelle KI (Constitutional AI) |
| OpenAI | Aktiv / Erweitert | Erlaubt „rechtmäßige defensive“ Nutzung |
| Google DeepMind | In Prüfung | Eingeschränkt, nur Mensch-im-Regelkreis (Human-in-the-loop) |
| xAI | Aktiv / Geheim | Einhaltung der uneingeschränkten „rechtmäßigen Nutzung“ |
Die kommenden Wochen werden für Anthropic entscheidend sein. Wenn die Einstufung als „Lieferkettenrisiko“ der rechtlichen Prüfung standhält, steht das Unternehmen vor einer existenziellen Bedrohung für sein Firmenkundengeschäft. Unternehmenskunden, die ebenfalls den Verteidigungssektor bedienen, könnten gezwungen sein, auf alternative Modelle umzusteigen, um regulatorisches Kreuzfeuer zu vermeiden.
Unterdessen hat das Kriegsministerium signalisiert, dass seine Geduld mit „Woke-KI“ – ein Begriff, den Minister Hegseth verwendet, um Modelle mit starken Sicherheitsfiltern zu beschreiben – am Ende ist. Während die USA darum kämpfen, generative KI (Generative AI) in ihre Befehls- und Kontrollinfrastruktur zu integrieren, wird die Kluft zwischen „patriotischen“ KI-Entwicklern und „Safety-First“-Laboren zur definierenden Bruchlinie der Branche werden.