
Washington, D.C. — Die Spannungen zwischen der ethischen KI-Bewegung (AI movement) des Silicon Valleys und dem US-Militärapparat haben einen kritischen Punkt erreicht. Dario Amodei, CEO von Anthropic, wurde zu einem hochbrisanten Treffen mit Verteidigungsminister Pete Hegseth ins Pentagon vorgeladen, das für Ende dieser Woche geplant ist. Das Treffen findet vor dem Hintergrund von Berichten statt, wonach das Verteidigungsministerium (Department of Defense, DoD) – das kürzlich per Dekret in „Kriegsministerium“ („Department of War“) umbenannt wurde – damit droht, Anthropic als „Lieferkettenrisiko“ („supply chain risk“) einzustufen. Eine solche Kennzeichnung würde das Unternehmen faktisch von Bundesverträgen ausschließen und Rüstungskonzerne dazu zwingen, die Verbindungen zum Schöpfer von Claude zu kappen.
Der Konflikt konzentriert sich auf die Weigerung von Anthropic, seine Leitplanken für Generative KI (Generative AI), die sogenannte „Constitutional AI“, für militärische Anwendungen zu lockern. Während das Pentagon einen „uneingeschränkten“ Zugang zu generativer KI für Zwecke sucht, die es als „rechtmäßig“ erachtet, hat Anthropic Berichten zufolge spezifische Anfragen im Zusammenhang mit der Zielerfassung autonomer Waffen und inländischen Überwachungsfunktionen blockiert.
Die Drohung, Anthropic als „supply chain risk“ einzustufen, stellt eine beispiellose Eskalation in der Beziehung der Regierung zum privaten KI-Sektor dar. Historisch gesehen war diese Bezeichnung ausländischen Gegnern oder kompromittierten Anbietern (wie Kaspersky Lab oder Huawei) vorbehalten; diese Einstufung hätte katastrophale kommerzielle Folgen für Anthropic.
Quellen, die den Verhandlungen nahestehen, deuten darauf hin, dass Verteidigungsminister Hegseth über das frustriert ist, was er als unternehmerische Kompetenzüberschreitung wahrnimmt. Die Position des Pentagons ist, dass nach der Beschaffung einer Technologie deren „rechtmäßige Verwendung“ durch den Oberbefehlshaber (Commander-in-Chief) und den Kongress bestimmt wird und nicht durch die Nutzungsbedingungen eines privaten Unternehmens.
Sollte die Einstufung erfolgen, würde dies eine sofortige Entkopplung auslösen:
Der Auslöser für diese Konfrontation scheint eine geheime Operation im Januar 2026 gewesen zu sein. Berichte des Wall Street Journal und von Axios enthüllten, dass US-Spezialeinsatzkräfte eine angepasste Version von Claude nutzten – aufgerufen über das AIP von Palantir –, um während der Mission, die zur Gefangennahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro führte, Echtzeit-Geheimdienstinformationen zu analysieren.
Obwohl die Operation als Erfolg gewertet wurde, waren die Führungskräfte von Anthropic Berichten zufolge von der spezifischen Anwendung ihres Modells überrascht, von der sie argumentierten, dass sie gegen ihre universellen Nutzungsstandards in Bezug auf „kinetische militärische Maßnahmen“ und „politische Interventionen“ verstieß. Als Ingenieure von Anthropic versuchten, das Modell zu patchen, um ähnliche künftige Nutzungen zu verhindern, werteten Pentagon-Beamte diesen Schritt als Eingriff in Operationen der nationalen Sicherheit.
Der Unterstaatssekretär im Verteidigungsministerium für Forschung und Technik Emil Michael kritisierte die Haltung des Unternehmens Anfang dieser Woche öffentlich. „Der Kongress verfasst Gesetze, der Präsident unterzeichnet sie, und die Behörden setzen sie um“, erklärte Michael. „Es ist nicht demokratisch, wenn ein privater Softwareanbieter die Einsatzregeln für das US-Militär diktiert. Wir brauchen Leitplanken, ja, aber sie müssen auf die Kriegsführung abgestimmt sein, nicht auf die PR des Unternehmens.“
Die Kluft zu Anthropic steht in krassem Gegensatz zu den sich erwärmenden Beziehungen des Pentagons zu anderen KI-Giganten. Im Rahmen der neuen „AI Acceleration Strategy“ ist das Department of War dazu übergegangen, Modelle zu integrieren, die weniger Reibungspunkte in Bezug auf tödliche Autonomie und Überwachung bieten.
Tabelle 1: Militärische Integration und politische Haltung großer KI-Anbieter
| Unternehmen | Flaggschiff-Modell | Militärischer Integrationsstatus | Wesentliche politische Differenzierung |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | Gefährdet (In Prüfung) | Strikte „Constitutional AI“ verbietet autonome Waffen und inländische Überwachung. Weigert sich, die Haftung für tödliche Fehler auszuschließen. |
| xAI | Grok 3 | Aktiv (GenAI.mil-Partner) | Ausrichtung an der „America First“-Politik. Fördert die uneingeschränkte Nutzung für nationale Sicherheitsinteresser. |
| OpenAI | GPT-5 | Aktiv (Pilotphase) | Geänderte Nutzungsrichtlinien, um Anwendungen der „nationalen Sicherheit“ zu ermöglichen. Behält Verbote für die Waffenentwicklung bei, erlaubt aber operative Analysen. |
| Gemini Ultra | Aktiv (Project Maven) | Tief in Logistik und Cyberabwehr integriert. Konzentriert sich auf „Human-in-the-Loop“-Systeme, um ethische Bedenken auszuräumen. |
Im Kern dieses Stillstands steht eine fundamentale philosophische Divergenz. Anthropic wurde auf der Prämisse der KI-Sicherheit (AI safety) gegründet und nutzt eine „Verfassung“ (Constitution), um Modelle darauf zu trainieren, hilfreich, harmlos und ehrlich zu sein. Dario Amodei hat häufig vor den „katastrophalen Risiken“ gewarnt, die von nicht ausgerichteter KI ausgehen, und nannte dabei insbesondere das Potenzial der KI, die Eintrittsbarriere für biologische Waffen oder Cyberangriffe zu senken.
Das Kriegsministerium argumentiert jedoch, dass in einer Ära des „Kalten Krieges 2.0“ selbst auferlegte ethische Handicaps einer einseitigen Abrüstung gleichkommen. Da Gegner wie China KI aggressiv in ihre Wirkungsketten (Kill Chains) integrieren, betont die Doktrin von Minister Hegseth Schnelligkeit und Letalität. Die Initiative „AI-first warfighting force“ des Pentagons fordert Modelle, die Drohnen-Feeds verarbeiten, Ziellösungen generieren und Cyber-Offensiven ohne „ideologische Einschränkungen“ ausführen können.
Das bevorstehende Treffen zwischen Amodei und Hegseth wird voraussichtlich spannungsgeladen sein. Analysten prognostizieren drei mögliche Ergebnisse:
Für die gesamte KI-Branche wird das Ergebnis dieses Treffens einen entscheidenden Präzedenzfall schaffen. Es wird darüber entscheiden, ob „AI Safety“ ein Leitprinzip für den Einsatz der Technologie bleibt oder ob die Notwendigkeiten der nationalen Verteidigung letztlich die ethischen Verfassungen des Silicon Valleys außer Kraft setzen werden.