
Das prekäre Gleichgewicht zwischen der ethischen Entwicklung künstlicher Intelligenz und nationalen Sicherheitsinteressen hat einen kritischen Punkt erreicht. Anthropic, das in San Francisco ansässige KI-Labor, das für seine „Konstitutionelle KI“ (Constitutional AI) und seine „Safety-First“-Philosophie bekannt ist, sieht sich einer existenziellen Bedrohung durch seinen mächtigsten potenziellen Kunden gegenüber: das Verteidigungsministerium der Vereinigten Staaten (Department of Defense, DoD). Berichte bestätigen, dass das Pentagon aktiv in Erwägung zieht, Anthropic als „Lieferkettenrisiko“ (Supply Chain Risk) einzustufen – eine drakonische Bezeichnung, die normalerweise ausländischen Gegnern vorbehalten ist –, nachdem es heftige Streitigkeiten über den Einsatz seiner Claude-Modelle in aktiven Militäroperationen gegeben hatte.
Im Zentrum dieses Sturms stehen ein Verteidigungsvertrag im Wert von 200 Millionen Dollar und eine grundlegende Meinungsverschiedenheit über die Rolle autonomer Agenten (Autonomous Agents) in der Kriegsführung. Während Wettbewerber wie OpenAI und xAI dazu übergegangen sind, den Forderungen des Militärs nach „allen rechtmäßigen Zwecken“ nachzukommen, ist Anthropic bei seinen roten Linien standhaft geblieben – insbesondere in Bezug auf Massenüberwachung (Mass Surveillance) und vollautonome tödliche Waffen. Der Konflikt ist von Verhandlungen im Sitzungssaal zu einer potenziellen branchenweiten Blacklist eskaliert, was einen Wendepunkt für die Integration von Grenzwert-KI (Frontier AI) in die industrielle Verteidigungsbasis signalisiert.
Die Reibungen zwischen Anthropic und Verteidigungsbeamten kochten Berichten zufolge nach einer geheimen Operation im Januar 2026 über, bei der versucht wurde, den ehemaligen venezolanischen Präsidenten Nicolás Maduro festzunehmen. Laut Quellen, die mit der Angelegenheit vertraut sind, nutzte das Pentagon Claude – über eine Integration mit dem Datenanalysepartner Palantir –, um während der Mission Echtzeit-Geheimdienstinformationen zu verarbeiten.
Obwohl die Operation nach militärischen Standards als taktischer Erfolg galt, lösten die Nachwirkungen einen schweren diplomatischen Riss zwischen dem Technologieunternehmen und dem DoD aus. Während einer routinemäßigen Überprüfung nach der Operation stellten Anthropic-Ingenieure angeblich die spezifische Anwendung ihres Modells bei der Razzia infrage und äußerten Bedenken, dass der Einsatz zu nah an tödliche Entscheidungsketten herangerückt sei. Diese Anfrage wurde von der Pentagon-Führung nicht als verantwortungsvolle Aufsicht, sondern als inakzeptabler Eingriff eines privaten Anbieters in die souveräne militärische Führung wahrgenommen.
Verteidigungsminister Pete Hegseth hat seitdem eine harte Haltung eingenommen und Berichten zufolge erklärt, dass das DoD „keine Modelle einsetzen wird, die es einem nicht erlauben, Kriege zu führen“. Diese Stimmung spiegelt eine wachsende Frustration innerhalb des Pentagons wider, dass die ideologischen Schutzplanken von Anthropic mit der Geschwindigkeit und Letalität, die in modernen Konflikten erforderlich sind, unvereinbar seien. Das DoD argumentiert, dass ihre Technologieanbieter kein Vetorecht auf der Grundlage privater Unternehmensmoral haben sollten, wenn ein Anwendungsfall nach internationalem und US-Recht legal ist.
Der Kern des Streits liegt in den unterschiedlichen Definitionen von „Sicherheit“ (Safety). Für Anthropic ist Sicherheit in die Architektur von Claude selbst kodiert, die darauf ausgelegt ist, Anfragen abzulehnen, die gegen ihre Konstitution verstoßen – einschließlich der Ermöglichung von Menschenrechtsverletzungen oder der Funktion als vollautonome Waffe. Für das Pentagon bedeutet Sicherheit die Gewissheit, dass ein Werkzeug zuverlässig und ohne Einschränkung funktioniert, wenn ein Kommandant einen rechtmäßigen Befehl erteilt.
Anthropic hat sich ausdrücklich geweigert, zwei spezifische Schwellenwerte zu überschreiten:
Während diese Einschränkungen mit den Werten vieler in der KI-Forschungsgemeinschaft übereinstimmen, werden sie von Verteidigungsplanern als Belastung angesehen. Das Gegenargument des Pentagons lautet, dass „alle rechtmäßigen Zwecke“ ein breites Spektrum an tödlichen Aktivitäten und Überwachungsmaßnahmen umfassen, die für die nationale Verteidigung notwendig sind. Indem Anthropic sich weigert, eine pauschale Ausnahmegenehmigung für diese Kategorien zu erteilen, wird dem Unternehmen vorgeworfen, eine Zuverlässigkeitslücke zu schaffen, die das Personal im Einsatz gefährden könnte.
Die folgende Tabelle skizziert den aktuellen Stand der großen KI-Labore in Bezug auf die militärische Integration:
Vergleich der Haltung großer KI-Labore zu Verteidigungsverträgen
---|---|----
KI-Labor|Militärische Haltung|Zentrale Konflikte/Status
Anthropic|Restriktiv / Ethische Schutzplanken|Risiko der Einstufung als „Lieferkettenrisiko (Supply Chain Risk)“ aufgrund der Ablehnung tödlicher Autonomie.
OpenAI|Flexibel / Kollaborativ|Verbot für „Militär und Kriegsführung“ entfernt; Verhandlung engerer Beziehungen für „rechtmäßige“ Nutzung.
xAI|Uneingeschränkt / Aggressiv|Wirbt offensiv um Verteidigungsverträge; ausgerichtet auf „America First“-Verteidigungsinitiativen.
Google (DeepMind)|Moderat / Projektspezifisch|Historischer interner Widerstand (Project Maven), verfolgt aber JADC2-Verträge.
Der besorgniserregendste Aspekt dieser Entwicklung ist die Drohung des Pentagons, Anthropic als „Lieferkettenrisiko“ (Supply Chain Risk) einzustufen. Diese Bezeichnung ist weitaus schädlicher als der einfache Verlust eines einzelnen 200-Millionen-Dollar-Vertrags. Im Ökosystem der Bundesverträge wirkt ein Label als Lieferkettenrisiko wie eine Ansteckung.
Falls es angewendet wird, würde es Hauptauftragnehmer – wie Lockheed Martin, Northrop Grumman und Palantir – rechtlich dazu zwingen, den Code von Anthropic aus ihren Systemen zu entfernen, um ihre eigene Eignung für Regierungsaufträge aufrechtzuerhalten. Es könnte Claude effektiv vom gesamten Bundesmarkt ausschließen, einschließlich nicht-militärischer Behörden, die sich an die Sicherheitsstandards des DoD halten.
Branchenanalysten warnen, dass dieser Schritt darauf abzielt, ein Exempel an Anthropic zu statuieren. „Das Pentagon sendet eine klare Botschaft an das Silicon Valley“, stellt ein Experte für Verteidigungspolitik des Lawfare Institute fest. „Man kann ethische Erklärungen haben oder Regierungsverträge, aber man kann dem US-Militär nicht die Einsatzregeln (Rules of Engagement) diktieren.“
Der Zeitpunkt dieses Zusammenstoßes ist kein Zufall. Er erfolgt zu einem Zeitpunkt, an dem Anthropic seine neueste Generation „autonomer Agenten“ (Autonomous Agents) veröffentlicht – KI-Systeme, die in der Lage sind, komplexe, mehrstufige Aufgaben mit minimalem menschlichem Eingriff auszuführen. Da sich diese Agenten von Chatbots zu aktiven Operatoren entwickeln, die Code schreiben, Cybersysteme steuern und Geodaten analysieren können, ist der Einsatz um ihre Kontrolle exponentiell gestiegen.
Das Pentagon betrachtet diese autonomen Agenten als entscheidend, um die Parität mit nahezu gleichrangigen Gegnern wie China zu wahren, die KI rasant in ihre Tötungsketten integrieren. Die Befürchtung innerhalb des DoD ist, dass die Abhängigkeit von einem Modell, das einen Befehl während einer kritischen Cyber-Offensive oder einer Drohnenschwarm-Koordination „verweigern“ könnte, eine strategische Schwachstelle darstellt, die man sich nicht leisten kann.
Während Anthropic seinen Standpunkt behauptet, nutzen die Wettbewerber den Riss aus. Berichte deuten darauf hin, dass xAI und OpenAI ihre Freigabeprozesse beschleunigt haben und „unzensierte“ oder „einsatzfähige“ Versionen ihrer Modelle für geheime Umgebungen anbieten. Diese Alternativen versprechen dem Pentagon genau das, was es verlangt: leistungsstarke Geheimdienstfähigkeiten ohne die Reibung moralischer Schlichtung.
Für Leser von Creati.ai und die breitere Tech-Industrie stellt dieser Stillstand eine entscheidende Abweichung dar. Falls Anthropic bestraft wird, könnte dies „Safety-First“-Initiativen in der gesamten Branche dämpfen und Labore dazu veranlassen, Compliance über das Gewissen zu stellen. Umgekehrt könnte Anthropic, falls es seine Position behauptet, einen neuen Präzedenzfall schaffen, in dem Ethik im privaten Sektor die unkontrollierte Automatisierung der Kriegsführung erfolgreich eindämmt.
Während die Frist für die Vertragsverlängerung näher rückt, beobachtet die Branche die Entwicklung mit angehaltenem Atem. Das Ergebnis wird nicht nur über das Schicksal eines 200-Millionen-Dollar-Deals entscheiden, sondern auch darüber, ob die Zukunft der militärischen KI von den Forderungen des Pentagons oder den ethischen roten Linien ihrer Schöpfer geprägt sein wird.