
In einem Schritt, der die Beziehung zwischen den sicherheitsorientierten KI-Laboren des Silicon Valley und dem US-Militär grundlegend spaltet, hat Verteidigungsminister Pete Hegseth Anthropic offiziell als „Lieferkettenrisiko für die nationale Sicherheit“ (supply chain risk to national security) eingestuft. Die Einstufung, die am späten Freitag bekannt gegeben wurde, kappt effektiv die Verbindungen des KI-Unternehmens zur Bundesregierung und untersagt Zehntausenden von Verteidigungsunternehmen die Nutzung seiner Technologie.
Die beispiellose Maßnahme folgt auf eine dramatische Pattsituation zwischen der Führung von Anthropic und dem Pentagon – von der aktuellen Regierung als Kriegsministerium (Department of War) bezeichnet – über die ethischen Grenzen generativer KI (Generative AI) im Kampfeinsatz. Nach der Einstufung erließ Präsident Donald Trump eine Richtlinie, die alle Bundesbehörden anweist, die Nutzung von Produkten von Anthropic, einschließlich seines Flaggschiffmodells Claude, mit einer strengen sechsmonatigen Ausstiegsfrist „unverzüglich einzustellen“.
„In dieser Woche hat Anthropic eine Meisterklasse in Arroganz und Verrat geliefert“, erklärte Hegseth auf X (ehemals Twitter) und verkündete das Verbot nur wenige Stunden nach Ablauf eines Ultimatums um 17:01 Uhr. „Kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär tätigt, darf kommerzielle Aktivitäten mit Anthropic durchführen.“
Diese Einstufung schafft eine binäre Wahl für die amerikanische Rüstungsindustrie: Trennen Sie sich von Claude oder verlieren Sie Ihre Regierungsverträge. Es handelt sich um eine Klassifizierung, die historisch ausländischen Widersachern wie Huawei oder Kaspersky Lab vorbehalten war, und markiert das erste Mal, dass ein führendes amerikanisches KI-Labor mit einem solch harten Mechanismus angegriffen wurde.
Der Konflikt dreht sich um eine grundlegende Meinungsverschiedenheit bezüglich der Richtlinie zur akzeptablen Nutzung (Acceptable Use Policy, AUP), die regelt, wie KI-Modelle eingesetzt werden können. Seit Monaten stocken die Verhandlungen zwischen Anthropic und Verteidigungsbeamten über zwei vom Unternehmen festgelegte, nicht verhandelbare „rote Linien“:
Verteidigungsbeamte argumentierten, dass diese Einschränkungen unvereinbar mit den Erfordernissen der nationalen Sicherheit seien, und forderten, dass Anthropic dem Militär „uneingeschränkten Zugang“ für „alle rechtmäßigen Zwecke“ gewährt.
Anthropic-CEO Dario Amodei weigerte sich zu kapitulieren. In einer kurz nach der Einstufung veröffentlichten Erklärung argumentierte Amodei, dass aktuelle Spitzenmodelle (Frontier Models) nicht zuverlässig genug seien, um ihnen tödliche Autonomie anzuvertrauen. „Wir können ihrer Forderung nicht guten Gewissens nachkommen“, sagte Amodei. „Die Erlaubnis, aktuelle Modelle auf diese Weise zu nutzen, würde Amerikas Soldaten und Zivilisten gefährden.“
Interne Quellen deuten darauf hin, dass die Spannungen im Januar 2026 einen Siedepunkt erreichten, nachdem Berichte laut wurden, dass Claude in Verbindung mit Palantir-Software während einer US-Militäroperation in Venezuela eingesetzt wurde. Die Operation, die zur Gefangennahme von Nicolás Maduro führte, löste bei Anthropic Berichten zufolge internen Alarm darüber aus, wie seine Technologie von Militärpersonal interpretiert wurde, was die Entschlossenheit des Unternehmens stärkte, strengere Schutzplanken durchzusetzen.
Die Auswirkungen von Anthropics Aufnahme auf die schwarze Liste waren unmittelbar und wurden durch seinen Hauptkonkurrenten deutlich illustriert. Nur wenige Stunden nach der Ankündigung des Pentagons bestätigte OpenAI, dass es eine neue Vereinbarung mit dem Verteidigungsministerium getroffen hat, um seine Modelle in klassifizierten Netzwerken einzusetzen.
Während OpenAI-CEO Sam Altman erklärte, dass ihre Vereinbarung „technische Sicherheitsvorkehrungen“ und Prinzipien zur menschlichen Verantwortung enthalte, deutet der Zeitpunkt auf eine klare Divergenz in der Branche hin. Der Markt spaltet sich nun in zwei unterschiedliche Lager: diejenigen, die bereit sind, sich vollständig an der „Hegseth-Doktrin“ (Hegseth Doctrine) der uneingeschränkten militärischen Anwendung auszurichten, und diejenigen, die versuchen, unabhängige ethische Kontrollen aufrechtzuerhalten.
Die folgende Tabelle skizziert die Divergenz in der Politik, die zu diesem historischen Bruch führte:
Vergleich der politischen Standpunkte
| Merkmal | Anthropics Position | Forderung des DoD / Hegseths |
|---|---|---|
| Autonome Waffen | Streng verboten (unter Hinweis auf Zuverlässigkeit) | Erlaubt („Alle rechtmäßigen Zwecke“) |
| Inlandsüberwachung | Streng verboten (Bürgerrechte) | Erlaubt (Priorität der nationalen Sicherheit) |
| Vertragsstatus | Eingestuft als Lieferkettenrisiko | Forderung nach „uneingeschränktem Zugang“ |
| Operationelle Kontrolle | Vom Anbieter definierte Schutzplanken | Vom Staat definierte Parameter |
Die Rhetorik von Minister Hegseth hat den Streit nicht nur als vertragliche Meinungsverschiedenheit, sondern als ideologischen Kampf gerahmt. Indem die Regierung Anthropic als „radikal linkes, woke Unternehmen“ bezeichnet, signalisiert sie, dass die Weigerung, militärischen Forderungen nachzukommen, als Mangel an Patriotismus behandelt wird.
Dies bringt große Verteidigungsunternehmen in eine prekäre Lage. Firmen wie Lockheed Martin, Boeing und Northrop Grumman – von denen viele verschiedene KI-Modelle für Codierung, Logistik und Analysen nutzen – müssen nun ihre Lieferketten prüfen, um sicherzustellen, dass Claude vollständig entfernt wird. Die Anordnung verbietet „kommerzielle Aktivitäten“, ein weit gefasster Begriff, der theoretisch ein Verteidigungsunternehmen bestrafen könnte, wenn dessen Personalabteilung Claude zum Entwerfen von E-Mails nutzt oder dessen Ingenieurteams es für die Generierung von nicht klassifiziertem Code verwenden.
Rechtsexperten warnen davor, dass die Einstufung als „Lieferkettenrisiko“, die typischerweise unter Befugnissen wie dem Federal Acquisition Supply Chain Security Act (FASCSA) verwendet wird, dazu dient, vor Spionage und Sabotage zu schützen, und nicht dazu, inländische Unternehmen für politische Meinungsverschiedenheiten zu bestrafen.
Anthropic hat geschworen, die Einstufung vor Gericht anzufechten, und bezeichnete sie als „rechtlich unhaltbar“. Das Unternehmen argumentiert, dass dem Pentagon die gesetzliche Befugnis fehlt, einem privaten amerikanischen Unternehmen die gesamte staatliche Lieferkette zu untersagen, nur weil es sich weigert, seine Nutzungsbedingungen zu ändern.
„Wir glauben, dass diese Einstufung ... einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen darstellt, das mit der Regierung verhandelt“, erklärte Anthropic. Das Unternehmen macht geltend, dass die Regierung versucht, ihre Nachfragemacht (Monopsonmacht) zu nutzen, um Rede und Code-Nutzung zu erzwingen, die gegen die verfassungsmäßigen Grundsätze des Unternehmens verstößt.
Die Gerichte haben der Exekutive jedoch historisch gesehen in Fragen der nationalen Sicherheit einen weiten Spielraum eingeräumt. Bis ein Richter einschreitet, bleibt das Verbot bestehen, was eines der fortschrittlichsten KI-Systeme der Welt effektiv aus dem öffentlichen Sektor ausschließt und die gesamte Technologiebranche zwingt, in einem eskalierenden Krieg um die Seele der militärischen KI Partei zu ergreifen.