
In einem entscheidenden Moment für die Zukunft der Künstlichen Intelligenz (Künstliche Intelligenz – AI) in der Landesverteidigung hat das Verteidigungsministerium (Department of Defense) ein deutliches Ultimatum an das KI-Sicherheits-Startup Anthropic gestellt. Verteidigungsminister Pete Hegseth hat dem Unternehmen bis zu diesem Freitag, dem 27. Februar 2026, Zeit gegeben, dem US-Militär uneingeschränkten Zugang zu seinem Flaggschiff-KI-Modell Claude zu gewähren, andernfalls droht eine massive Intervention des Bundes.
Die Konfrontation, die sich nach einem spannungsgeladenen Treffen hinter verschlossenen Türen am Dienstag zwischen Minister Hegseth und dem Anthropic-CEO Dario Amodei zuspitzte, dreht sich um eine grundlegende Meinungsverschiedenheit über die in KI-Systemen eingebetteten ethischen „Leitplanken“. Das Pentagon droht damit, den Defense Production Act (DPA) anzuwenden oder Anthropic als „Lieferkettenrisiko“ (supply chain risk) einzustufen – eine Bezeichnung, die das Unternehmen faktisch vom Bundesmarkt ausschließen könnte –, sofern es nicht die Einschränkungen aufhebt, die verhindern, dass seine Software für autonome Waffen und Inlandsüberwachung eingesetzt wird.
Wir hier bei Creati.ai beobachten diesen Machtkampf genau, da er den bisher bedeutendsten Zusammenstoß zwischen den sicherheitsorientierten KI-Laboren des Silicon Valleys und den operativen Notwendigkeiten des US-Sicherheitsapparats darstellt.
Im Mittelpunkt des Konflikts steht die Weigerung von Anthropic, seine Nutzungsbedingungen für militärische Anwendungen zu ändern. Während Anthropic einen 200-Millionen-Dollar-Vertrag mit dem Verteidigungsministerium abgeschlossen hat und sein Claude-Modell derzeit das einzige Large Language Model (LLM) ist, das für die Nutzung in geheimen Pentagon-Netzwerken zugelassen ist, hat das Unternehmen klare „rote Linien“ bezüglich des Einsatzes seiner Technologie gezogen.
Konkret schränkt Anthropic die Nutzung von Claude für folgende Bereiche ein:
Minister Hegseth und Pentagon-Beamte argumentieren, dass diese privaten Unternehmenseinschränkungen unnötige Hindernisse für die nationale Sicherheit darstellen. Die Position des Verteidigungsministeriums ist, dass seine Operationen bereits durch die US-Verfassung und Bundesgesetze geregelt sind, wodurch die zusätzlichen ethischen Ebenen von Anthropic redundant und behindernd wirken.
Laut Quellen, die mit dem Treffen am Dienstag vertraut sind, sagte Hegseth gegenüber Amodei ausdrücklich, dass das Militär Zugang zu Claude für „alle rechtmäßigen Zwecke“ ohne „ideologische Einschränkungen“ benötige. Dies steht im Einklang mit Hegseths umfassenderer Initiative, sicherzustellen, dass militärische KI-Systeme tödlich und ungehindert sind – eine Haltung, die er Anfang des Jahres mit der Erklärung zusammenfasste, dass die KI des Pentagons „nicht woke sein wird“.
Die gegenüber Anthropic ausgesprochene Drohung ist im kommerziellen KI-Sektor beispiellos. Sollte die Frist am Freitag ohne Zugeständnisse verstreichen, hat das Pentagon zwei potenzielle Vorgehensweisen skizziert, die beide verheerende Folgen für das Geschäftsmodell von Anthropic hätten.
Der Defense Production Act von 1950 gewährt dem Präsidenten weitreichende Befugnisse, um inländische Industrien zur Priorisierung von Regierungsaufträgen und zur Zuweisung von Ressourcen für die nationale Verteidigung zu zwingen. Historisch in Kriegszeiten oder Notfällen wie der COVID-19-Pandemie eingesetzt, wäre die Anwendung des DPA, um ein Softwareunternehmen zur Änderung seines Sicherheits-Codes zu zwingen, eine neuartige rechtliche Anwendung. Im Wesentlichen könnte die Regierung gesetzlich vorschreiben, dass Anthropic eine unzensierte Version von Claude bereitstellt und damit die „Sicherheitsverfassung“ des Unternehmens außer Kraft setzt.
Vielleicht noch schädlicher ist die Drohung, Anthropic als „Lieferkettenrisiko“ einzustufen. Diese Bezeichnung ist normalerweise ausländischen Gegnern oder kompromittierten Einheiten vorbehalten (ähnlich den Maßnahmen gegen Huawei oder Kaspersky).
Sollte dieses Label auf Anthropic angewendet werden, würde dies:
Die Dringlichkeit der Forderung des Pentagons scheint mit jüngsten operativen Reibungen zusammenzuhängen. Berichte deuten darauf hin, dass das US-Militär Claude während einer Razzia von Spezialeinheiten im Januar 2026 einsetzte, die zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro führte. Obwohl die Operation erfolgreich war, kam es in der Folge zu Streitigkeiten darüber, ob der Einsatz der KI gegen die Nutzungsrichtlinien von Anthropic verstieß, was zu dem führte, was Beamte als „Vertrauensdefizit“ bezeichneten.
Darüber hinaus wandelt sich die Landschaft der militärischen KI rasant. Während Anthropic zögert, rücken Konkurrenten nach, um die Lücke zu füllen. Elon Musks xAI hat Berichten zufolge den Bedingungen des Pentagons für „jede rechtmäßige Nutzung“ zugestimmt, und seine Modelle wurden kürzlich für Geheimhaltungsarbeiten freigegeben. In ähnlicher Weise buhlen OpenAI und Google aktiv um einen größeren Anteil am Verteidigungsbudget.
Für Anthropic ist das Dilemma existenziell. CEO Dario Amodei hat den Ruf des Unternehmens auf einer „Safety-First“-Entwicklung aufgebaut. Einer Forderung nach autonomer Bewaffnung nachzugeben, würde den Kern des Forschungspersonals entfremden und der Gründungsmission widersprechen. Der Verlust der US-Regierung als Kunde – bei gleichzeitiger Konfrontation mit dem DPA – könnte jedoch die finanzielle Lage und den Marktzugang des Unternehmens lähmen.
Um die Tragweite der Frist am Freitag zu verdeutlichen, haben wir die gegensätzlichen Standpunkte unten aufgeschlüsselt.
Tabelle: Forderungen des Pentagons vs. Anthropic-Richtlinie
---|---|----
Kernanforderung|Position des Pentagons|Position von Anthropic
Nutzungsbeschränkungen|Fordert „alle rechtmäßigen Anwendungsfälle“, einschließlich Kampfeinsätzen.|Verbietet autonome Zielerfassung und Massenüberwachung.
Aufsicht|Vertraut auf US-Gesetze, die Verfassung und die Befehlskette.|Vertraut auf interne „Constitutional AI“-Sicherheitsprotokolle.
Menschliche Kontrolle|Offen für autonome Systeme, sofern rechtlich geklärt.|Erfordert „Human-in-the-Loop“ bei allen tödlichen Entscheidungen.
Konsequenz bei Scheitern|Anwendung des Defense Production Act; Blacklisting der Lieferkette.|Potenzieller Verlust eines 200-Millionen-Dollar-Vertrags; Reputationsschaden.
Status|Strebt „operative Überlegenheit“ ohne Anbieterbeschränkungen an.|Verteidigt „verantwortungsbewusste Skalierung“ (responsible scaling) und ethische Grenzen.
Der Ausgang dieses Machtkampfes wird einen dauerhaften Präzedenzfall für die Beziehung zwischen der US-Regierung und dem privaten KI-Sektor schaffen. Wenn das Pentagon den DPA erfolgreich nutzt, um Sicherheitsvorkehrungen zu entfernen, verstaatlicht es faktisch die ethischen Standards von KI-Modellen, die zur Verteidigung eingesetzt werden. Private Unternehmen hätten nicht mehr das Recht, den Dienst für spezifische militärische Anwendungen aufgrund moralischer Einwände zu verweigern.
Umgekehrt würde Anthropic, falls es die Linie hält und die Folgen übersteht, etablieren, dass erstklassige KI-Fähigkeiten ein Verkäufermarkt bleiben, auf dem der Anbieter die Bedingungen für den Einsatz diktiert.
Die Frist am Freitag dient als kritischer Wendepunkt. Die Tech-Branche wartet ab, ob die Dynamik der Übergangsära zwischen Biden und Trump – in der die nationale Sicherheit die Unternehmenspolitik aggressiv übertrumpft – Silicon Valleys idealistischsten Akteur zum Einlenken zwingt. Im Moment ist Anthropic das einzige große Labor, das sich der vollständigen Integration seiner Intelligenz in die Kriegsmaschinerie widersetzt. Bis zum Wochenende könnte dieser Unterschied nicht mehr bestehen.
Creati.ai wird diese Geschichte weiter aktualisieren, sobald das Ende der Frist näher rückt.