
In einer historischen Eskalation der Spannungen zwischen dem Silicon Valley und Washington hat der KI-Pionier Anthropic offiziell Klage gegen die Regierung der Vereinigten Staaten eingereicht. Die rechtlichen Schritte erfolgen nur wenige Tage, nachdem das Pentagon – das von der aktuellen Regierung als Kriegsministerium (Department of War) bezeichnet wird – das in San Francisco ansässige Unternehmen offiziell als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft hat. Diese Bezeichnung, die historisch ausländischen Organisationen vorbehalten war, die mit gegnerischen Nationen in Verbindung stehen, markiert das erste Mal, dass ein amerikanisches Technologieunternehmen mit einer solchen Klassifizierung belegt wurde. Damit ist die Bühne frei für einen entscheidenden Rechtsstreit über die Zukunft der künstlichen Intelligenz in der nationalen Sicherheit.
Die von Anthropic-CEO Dario Amodei angekündigte Klage zielt auf eine sofortige einstweilige Verfügung ab, um die Einstufung aufzuheben. Amodei bezeichnet den Schritt der Regierung als „rechtlich unbegründet“ und als Strafmaßnahme, die darauf abzielt, das Unternehmen zur Aufgabe seiner ethischen Sicherheitsvorkehrungen (Safety Guardrails) zu zwingen. Im Mittelpunkt des Konflikts steht eine grundlegende Meinungsverschiedenheit über den militärischen Einsatz von KI: Während das Pentagon die „jegliche rechtmäßige Nutzung“ der Technologie fordert, hat Anthropic sich standhaft geweigert, den Einsatz seiner Claude-Modelle für massenhafte Inlandsüberwachung oder vollautonome tödliche Waffensysteme zu gestatten.
Das Konzept der Einstufung als „Lieferkettenrisiko“ wurde ursprünglich eingeführt, um die US-Infrastruktur vor ausländischer Spionage und Sabotage zu schützen. Frühere Ziele waren chinesische Telekommunikationsriesen wie Huawei und ZTE sowie das russische Cybersicherheitsunternehmen Kaspersky Lab. Die Anwendung dieses Labels auf Anthropic – ein Unternehmen, das von ehemaligen OpenAI-Führungskräften mit dem Auftrag zur KI-Sicherheit (AI Safety) gegründet wurde – stellt einen radikalen Wandel in der US-Verteidigungspolitik dar.
Gemäß den Bedingungen der am 4. März 2026 erlassenen Einstufung untersagt das Verteidigungsministerium (Department of Defense) seinen Auftragnehmern und Partnern effektiv die Nutzung der Technologie von Anthropic für militärische Aufgaben. Verteidigungsminister Pete Hegseth bezeichnete die Entscheidung als notwendigen Schritt, um sicherzustellen, dass das US-Militär nicht durch den „fehlerhaften Altruismus“ privater Unternehmen behindert wird.
In seiner Einreichung argumentiert Amodei, dass die Regierung es versäumt habe, eine tatsächliche Sicherheitslücke in den Systemen von Anthropic nachzuweisen. Stattdessen macht das Unternehmen geltend, dass das vom Pentagon angeführte „Risiko“ eher ideologischer als technischer Natur sei – eine Weigerung, Forderungen nachzugeben, die die menschliche Aufsicht aus tödlichen Entscheidungsprozessen entfernen würden.
Wichtige Auswirkungen der Einstufung:
Der Bruch zwischen Anthropic und dem Pentagon geschah nicht über Nacht. Er ist der Höhepunkt monatelanger gescheiterter Verhandlungen über die Erneuerung und Ausweitung von Verteidigungsverträgen. Die Reibungspunkte sind spezifisch und ideologisch. Anthropic hat Prinzipien der „Konstitutionellen KI“ (Constitutional AI) in seine Modelle integriert, die Ablehnungen für Anfragen fest codieren, die Menschenrechtsverletzungen, Folter oder die Automatisierung tödlicher Gewalt ohne menschliche Autorisierung beinhalten.
Das Pentagon, das eine Strategie der „KI-Dominanz“ verfolgt, argumentiert, dass diese fest codierten Verweigerungen ein operationelles Risiko darstellen. Das Verteidigungsministerium macht geltend, dass eine KI, die Befehle basierend auf Unternehmensethik infrage stellt, in Kampfsimulationen mit hohem Einsatz oder bei schnellen Geheimdienstanalysen eine Belastung darstellt.
Die folgende Tabelle skizziert die gegensätzlichen Positionen, die zu diesem Stillstand geführt haben:
Vergleich der Standpunkte: Anthropic vs. Das Pentagon
---|---|----
Kernphilosophie|KI-Sicherheit und Beschränkungen durch „Konstitutionelle KI“|Uneingeschränkte „jegliche rechtmäßige Nutzung“ zur Dominanz
Rote Linien|Keine Massenüberwachung; keine autonomen Waffen|Keine unternehmensinternen Beschränkungen für militärische Anwendungen
Sicherheitsansicht|Sicherheitsfunktionen verhindern Missbrauch und Unfälle|Verweigerungsmechanismen schaffen betriebliche Haftungsrisiken
Vertragsstatus|Unterzeichnung ohne ethische Ausnahmen abgelehnt|Anbieter als „Lieferkettenrisiko“ eingestuft
Ergebnis|Eingereichte Klage wegen administrativer Kompetenzüberschreitung|Einleitung des Ersatzes des Anbieters durch Wettbewerber
Die Einstufung hat Schockwellen durch den amerikanischen Technologiesektor gesendet. Rechtsexperten und Branchenanalysten warnen davor, dass die Nutzung von Lieferketten-Befugnissen zur Bestrafung innenpolitischer Meinungsverschiedenheiten die robuste Partnerschaft zwischen der US-Regierung und dem privaten Tech-Sektor destabilisieren könnte – eine Partnerschaft, die seit Jahrzehnten der Motor der amerikanischen Innovation ist.
„Dies ist eine Instrumentalisierung des Vergaberechts“, erklärte ein leitender Politikanalyst am Center for Strategic and International Studies. „Wenn die Regierung ein US-Unternehmen als nationales Sicherheitsrisiko einstufen kann, nur weil es einen bestimmten Waffentyp nicht bauen will, ist jedes Dual-Use-Technologieunternehmen in Amerika nun gewarnt.“
Das von Anthropic hinterlassene Vakuum wird jedoch bereits gefüllt. Zeitgleich mit dem Zusammenbruch der Beziehungen zwischen Anthropic und dem Pentagon kündigte die Konkurrenzfirma OpenAI eine umfassende neue Partnerschaft mit dem Verteidigungsministerium an. OpenAI hat Bedingungen zugestimmt, die Berichten zufolge eine breitere militärische Anwendung seiner Modelle ermöglichen, obwohl das Unternehmen darauf besteht, Schutzvorkehrungen gegen Missbrauch beizubehalten. Diese Divergenz hat im Silicon Valley eine gespaltene Landschaft geschaffen: ein Lager, das bereit ist, sich vollständig an den Prioritäten der Verteidigung auszurichten, um massive Regierungsaufträge zu sichern, und ein anderes, angeführt von Anthropic, das versucht, seine ethische Unabhängigkeit zu bewahren, selbst um den Preis einer staatlichen Ächtung.
Die Klage von Anthropic stützt sich auf das Verwaltungsverfahrensgesetz (Administrative Procedure Act, APA) und spezifische Bestimmungen zur Lieferkettensicherheit. Die Anwälte des Unternehmens argumentieren, dass das Gesetz von der Regierung verlangt, das „am wenigsten restriktive Mittel“ (least restrictive means) einzusetzen, um ein Risiko zu mindern. Indem die Regierung sofort zu einer Einstufung als „Lieferkettenrisiko“ griff – der „nuklearen Option“ der Beschaffungsvorschriften –, habe sie mildere Mittel umgangen, wie etwa die einfache Nichterneuerung spezifischer Verträge.
Darüber hinaus hat Amodei öffentlich erklärt, dass die überwiegende Mehrheit der Kunden von Anthropic unberührt bleibt. „Es gilt eindeutig nur für die Nutzung von Claude durch Kunden als direkter Teil von Verträgen mit dem Kriegsministerium, nicht für jede Nutzung von Claude durch Kunden, die solche Verträge haben“, schrieb Amodei in einer beruhigenden Nachricht an kommerzielle Kunden. Dennoch ist der Reputationsschaden, mit ausländischen Gegnern in eine Gruppe geworfen zu werden, schwerwiegend.
Die Klage behauptet zudem, dass die Einstufung ein Racheakt war. Interne Memos, die in der Einreichung zitiert werden, legen nahe, dass Regierungsbeamte über die mangelnde politische Unterstützung durch Anthropic und dessen lautstarke Kritik an der aggressiven KI-Deregulierungspolitik der Regierung frustriert waren.
Während der Fall vor ein Bundesgericht geht, steht weit mehr auf dem Spiel als die Regierungseinnahmen von Anthropic. Das Urteil wird wahrscheinlich das Ausmaß der Befugnisse der US-Regierung definieren, private Unternehmen zur Unterstützung militärischer Operationen zu zwingen.
Sollten die Gerichte die Einstufung des Pentagons bestätigen, bekräftigt dies eine Doktrin, nach der nationale Sicherheitsinteressen über Unternehmensführung und ethische Chartas stehen. Wenn Anthropic gewinnt, könnte dies einen rechtlichen Schutzschild für Tech-Unternehmen schaffen, der es ihnen ermöglicht, am Regierungsmarkt teilzunehmen und gleichzeitig ihren eigenen moralischen Kompass beizubehalten.
Vorerst beobachtet die Branche die Entwicklung mit angehaltenem Atem. Das Ergebnis wird darüber entscheiden, ob „KI-Sicherheit“ ein tragfähiges Geschäftsmodell für verteidigungsnahe Unternehmen bleibt oder ob die Ausrichtung an den militärischen Zielen des Staates zum nicht verhandelbaren Eintrittspreis wird.
Zeitplan der Ereignisse, die zur Klage führten:
Dieser Konflikt steht für die Reifung der KI-Branche. Fortgeschrittene KI ist nicht mehr nur eine wissenschaftliche Kuriosität oder ein Produktivitätswerkzeug, sondern wird heute als kritisches nationales Gut angesehen – und als Waffe. Der Widerstand von Anthropic markiert den ersten bedeutenden Versuch eines Schöpfers dieser Technologie, gegen den Willen des Staates die Kontrolle über deren endgültiges Schicksal zu behaupten.