
In einem Wendepunkt für die Branche der Künstlichen Intelligenz (Artificial Intelligence, AI) ist die Spannung zwischen ethischer KI-Entwicklung und nationalen Verteidigungsanforderungen in einen umfassenden öffentlichen Konflikt ausgebrochen. Nach einer Richtlinie des Pentagons, die Anthropic als „Lieferkettenrisiko“ (Supply Chain Risk) für die nationale Sicherheit eingestuft hat, hat CEO Dario Amodei eine trotzige und dennoch zutiefst nationalistische Antwort gegeben: „Wir sind patriotische Amerikaner“, während er sich weigert, das zu überschreiten, was das Unternehmen als kritische ethische rote Linien definiert.
Der Streit, der diese Woche in einem umfassenden Verbot gipfelte, das von der Trump-Administration und Verteidigungsminister Pete Hegseth angeordnet wurde, konzentriert sich auf die Weigerung von Anthropic, seine Nutzungsbedingungen (Terms of Service) zu ändern, um eine uneingeschränkte militärische Nutzung zu ermöglichen – insbesondere im Hinblick auf massenhafte Inlandsüberwachung und vollautonome tödliche Waffen.
Der Konflikt erreichte am Freitag seinen kritischen Punkt, als das Verteidigungsministerium (Department of Defense, DoD) ein Ultimatum an Anthropic stellte: Entfernen Sie die Sicherheitsleitplanken (Safety Guardrails), die den militärischen Einsatz des Claude-Modells einschränken, oder rechnen Sie mit der Aufnahme in die schwarze Liste. Als die Frist um 17:01 Uhr verstrich, ohne dass Anthropic nachgab, setzte Minister Hegseth eine Einstufung durch, die selten auf inländische Unternehmen angewendet wird und den KI-Riesen in Bezug auf die Toxizität der Lieferkette effektiv auf eine Stufe mit ausländischen Gegnern stellt.
„Amerikas Krieger werden niemals Geiseln der ideologischen Launen von Big Tech sein“, erklärte Hegseth und kündigte an, dass kein Auftragnehmer, der Geschäfte mit dem US-Militär macht, die kommerziellen Aktivitäten mit Anthropic fortsetzen dürfe.
In einem vielbeachteten Interview und einer anschließenden Erklärung wies Dario Amodei das Narrativ zurück, sein Unternehmen behindere die nationale Sicherheit. Stattdessen stellte er die Weigerung von Anthropic als Verteidigung zentraler amerikanischer Werte dar. „Alles, was wir getan haben, geschah zum Wohle dieses Landes, um die nationale Sicherheit der USA zu unterstützen“, erklärte Amodei. „Die roten Linien, die wir gezogen haben, haben wir gezogen, weil wir glauben, dass das Überschreiten dieser Linien den amerikanischen Werten widerspricht.“
Der Kern der Meinungsverschiedenheit liegt in zwei spezifischen Anwendungsfällen, die Anthropic in seiner Richtlinie für verantwortungsvolle Skalierung (Responsible Scaling Policy, RSP) und seinen Nutzungsbedingungen konsequent untersagt hat, selbst für Regierungskunden:
Das Pentagon argumentiert unter der Umbenennung der aktuellen Regierung in „Kriegsministerium“ (Department of War), dass diese Einschränkungen einem „Vetorecht“ über militärische Operationen gleichkommen. Verteidigungsbeamte machten geltend, dass sie „alle rechtmäßigen Nutzungen“ der Technologie benötigen, um die Überlegenheit gegenüber Gegnern wie China zu wahren, die keinen solchen ethischen Beschränkungen durch ihren heimischen Tech-Sektor unterliegen.
Die Einstufung von Anthropic als „Lieferkettenrisiko“ ist eine drakonische wirtschaftliche Maßnahme mit Auswirkungen, die weit über das Pentagon hinausgehen. Diese Bezeichnung beendet nicht nur die direkten Verträge zwischen Anthropic und dem DoD; sie erzeugt einen Ansteckungseffekt in der gesamten industriellen Basis der Verteidigung.
Große Verteidigungsunternehmen und Technologiepartner – potenziell einschließlich Cloud-Anbietern wie AWS und Google Cloud, sofern sie militärische Verträge bedienen – stehen nun unter rechtlichem Druck, die Beziehungen zu Anthropic abzubrechen, um ihren eigenen Status bei der Regierung zu wahren. Da Anthropic kürzlich mit rund 380 Milliarden Dollar bewertet wurde und sich auf einen potenziellen Börsengang vorbereitet, stellt dieser Schritt eine existenzielle finanzielle Bedrohung dar, die darauf ausgelegt ist, die Einhaltung zu erzwingen.
„Dies ist vergeltend und strafend“, sagte Amodei gegenüber Reportern und signalisierte, dass das Unternehmen beabsichtigt, die Einstufung vor Gericht anzufechten. Rechtsexperten weisen darauf hin, dass die Anwendung eines Rahmens für Lieferkettenrisiken – der normalerweise für Hardware aus feindlichen Nationen reserviert ist – auf ein US-amerikanisches Softwareunternehmen aufgrund politischer Meinungsverschiedenheiten beispiellos ist und einer erheblichen gerichtlichen Prüfung standhalten müsste.
Das Verbot hat ein sofortiges Vakuum im Sektor der Verteidigungs-KI geschaffen, das Wettbewerber schnell gefüllt haben. Stunden nach Bekanntgabe der Einstufung bestätigte OpenAI eine neue Partnerschaft mit dem Pentagon und stimmte Bedingungen zu, die breitere militärische Anwendungen ermöglichen.
Diese Divergenz markiert eine bedeutende Gabelung in der KI-Industrie: jene, die sich strikt an den Anforderungen der Regierung zur „uneingeschränkten Kriegsführung“ ausrichten, und jene, die versuchen, eine unabhängige ethische Governance aufrechtzuerhalten.
Tabelle: Die Kluft in der KI-Verteidigung
| Auftragnehmer | Haltung zu autonomen Waffen | Haltung zu Massenüberwachung | Pentagon-Status |
|---|---|---|---|
| Anthropic | Streng verboten Zitiert technische Unzuverlässigkeit und ethische Risiken. |
Streng verboten Betrachtet dies als Verletzung bürgerlicher Freiheiten. |
Verbannt Eingestuft als „Lieferkettenrisiko“ |
| OpenAI | Erlaubt Unter dem Rahmenwerk der „rechtmäßigen Nutzung“. |
Erlaubt Abgestimmt auf DoD-Anforderungen. |
Aktiver Partner Neuer Vertrag unterzeichnet Feb. 2026 |
| Palantir | Vollständig integriert Langjährige Unterstützung für tödliche Autonomie. |
Vollständig integriert Kernproduktangebot. |
Aktiver Partner Primärer Verteidigungsintegrator |
Amodeis Verteidigung stützt sich stark auf die technische Realität aktueller großer Sprachmodelle (Large Language Models, LLMs). Jenseits des moralischen Arguments behauptet Anthropic, dass die Technologie schlichtweg nicht bereit sei, in tödlichen Szenarien „aus der Entscheidungsschleife“ (out of the loop) genommen zu werden.
„Wir glauben daran, unsere autokratischen Gegner zu besiegen“, stellte Amodei klar. „Aber der Einsatz von Systemen, die halluzinieren oder leicht durch Jailbreaks in autonome Tötungsketten manipuliert werden können, macht Amerika nicht sicherer; es führt einen neuen Vektor des Chaos ein.“
Dieses Argument „Sicherheit ist Schutz“ postuliert, dass wahrer Patriotismus darin besteht, den Einsatz unreifer Technologie zu verhindern, die zu Eigenbeschuss, unbeabsichtigter Eskalation oder Kriegsverbrechen führen könnte. Die Regierung betrachtet diese Vorsicht jedoch als Obstruktionismus und interpretiert „verantwortungsvolle Skalierung“ als Euphemismus für eine „woke“ Zögerlichkeit, welche die amerikanische militärische Modernisierung verlangsamt.
Während die sechsmonatige Auslaufphase für die aktuellen Regierungsverträge von Anthropic beginnt, sieht sich die Branche mit einem dämpfenden Effekt konfrontiert. Die Botschaft aus Washington ist klar: In der neuen Ära der KI-Kriegsführung ist Konformität obligatorisch, und ethischer Widerspruch hat einen hohen Preis.
Der rechtliche Vorstoß von Anthropic wird wahrscheinlich einen prägenden Präzedenzfall für das 21. Jahrhundert schaffen. Kann die Regierung ein privates amerikanisches Unternehmen zwingen, Werkzeuge zu bauen, die es für moralisch und technisch unsicher hält? Oder beinhaltet die Definition von „patriotischer“ Innovation das Recht, Nein zu sagen?
Vorerst bleiben Dario Amodei und Anthropic bei ihren roten Linien und wetten darauf, dass das amerikanische Rechtssystem – und vielleicht das langfristige Urteil der Geschichte – ihre prinzipientreue Zurückhaltung höher bewerten wird als den unmittelbaren militärischen Nutzen. Doch kurzfristig sieht sich das Unternehmen der vollen Härte der Bundesregierung gegenüber, die entschlossen ist, das Silicon Valley zur Räson zu bringen.