
In einem Wendepunkt für die Branche der künstlichen Intelligenz (KI) hat Anthropic das „letzte und endgültige“ Vertragsangebot des US-Verteidigungsministeriums öffentlich und definitiv abgelehnt. Die Ablehnung, die von CEO Dario Amodei am 26. Februar 2026 übermittelt wurde, markiert einen der bedeutendsten Zusammenstöße zwischen dem Silicon Valley und Washington seit Beginn des KI-Booms. Im Zentrum des Konflikts steht eine fundamentale Meinungsverschiedenheit über den Einsatz von Anthropics Flaggschiff-Modell Claude in tödlichen autonomen Waffensystemen und Massensystemen zur Inlandsüberwachung.
Die Verhandlungen, die Berichten zufolge monatelang hinter verschlossenen Türen stattfanden, drangen an die Öffentlichkeit, als Amodei eine Erklärung veröffentlichte, in der er betonte: „Wir können ihrer Bitte nicht guten Gewissens zustimmen.“ Dieser Schritt positioniert Anthropic als den einzigen großen Verweigerer unter den erstklassigen KI-Laboren und wirft kritische Fragen über die Zukunft des KI-Alignments (AI Alignment), staatliche Übergriffe und die Unabhängigkeit privater Technologieunternehmen in einer Ära erhöhter geopolitischer Spannungen auf.
Laut Quellen, die den Verhandlungen nahestehen, war der finalisierte Vorschlag des Pentagons nicht nur ein Standard-Beschaffungsvertrag, sondern ein umfassender Integrationsrahmen. Das Verteidigungsministerium (Department of Defense, DoD) strebte uneingeschränkten Zugriff auf den Quellcode und die Gewichtungen von Claude an, um Kampfsysteme der nächsten Generation anzutreiben.
Der Kern der Uneinigkeit konzentriert sich auf zwei spezifische Anwendungsfälle, die gegen Anthropics Prinzipien der „Konstitutionellen KI“ (Constitutional AI) verstoßen:
Amodeis Ablehnung war kategorisch. In einem Memo an die Mitarbeiter von Anthropic, das später der Presse zugänglich gemacht wurde, betonte er, dass die Erlaubnis, Claude für diese Zwecke zu nutzen, „die Sicherheitsleitplanken, an deren Aufbau wir jahrelang gearbeitet haben, irreversibel korrumpieren würde“.
Der vielleicht besorgniserregendste Aspekt dieses Stillstands ist die Reaktion der Regierung. Nach der Ablehnung haben Pentagon-Beamte Berichten zufolge damit gedroht, den Defense Production Act (DPA) von 1950 anzuwenden. Ursprünglich entworfen, um die Versorgung mit Industriematerialien während des Koreakriegs sicherzustellen, gewährt der DPA dem Präsidenten weitreichende Befugnisse, Unternehmen zu verpflichten, Regierungsverträge zu priorisieren, die für die nationale Verteidigung als notwendig erachtet werden.
Mögliche Auswirkungen der DPA-Durchsetzung:
Rechtsexperten warnen, dass die Anwendung des DPA auf Software und geistiges Eigentum dieser Art einen beispiellosen verfassungsrechtlichen Rechtsstreit auslösen würde, der die Grenzen der staatlichen Macht über private Innovationen austestet.
Die Ablehnung durch Anthropic verdeutlicht einen wachsenden Bruch innerhalb der KI-Industrie. Während Anthropic an seinem „Safety-first“-Ethos festgehalten hat, sind Wettbewerber andere Wege gegangen und haben die Notwendigkeit der technologischen Überlegenheit Amerikas gegenüber geopolitischen Rivalen angeführt.
Die folgende Tabelle vergleicht die aktuelle Haltung großer KI-Labore zur militärischen Integration:
Vergleich der militärischen Haltung großer KI-Labore (Feb. 2026)
| Organisation | Kernhaltung zu Militärverträgen | Wichtige Einschränkungen |
|---|---|---|
| Anthropic | Vollständige Ablehnung von tödlicher/Überwachungsnutzung | Verbietet autonome Waffen und die Integration von Massenüberwachung |
| OpenAI | Bedingte Kooperation | Erlaubt Nutzung für die „Nationale Sicherheit“; zweideutig bei tödlicher Autonomie |
| Google DeepMind | Eingeschränkte Partnerschaft | Einschränkungen durch Project Maven gelten; Fokus auf Logistik/Cyberabwehr |
| Palantir | Vollständige Integration | Baut aktiv Plattformen für tödliche Zielerfassung und Überwachung |
| Microsoft | Strategische Allianz | Stellt Infrastruktur/LLMs für das DoD bereit; Mandat für Nicht-Tödlichkeit wird oft aufgehoben |
Dieser Unterschied bringt Anthropic in eine prekäre finanzielle Lage, stärkt jedoch seine Marke bei sicherheitsbewussten Unternehmenskunden und ethischen Investoren.
Die Formulierung von Dario Amodei „Wir können nicht guten Gewissens zustimmen“ erinnert an die Sprache, die während der internen Revolte bei Google gegen Project Maven im Jahr 2018 verwendet wurde, aber der Einsatz im Jahr 2026 ist deutlich höher. Die Fähigkeiten aktueller Grenzmodelle wie Claude 5 übertreffen die Computer-Vision-Tools des vorangegangenen Jahrzehnts bei weitem.
Ethisches Rahmenwerk vs. nationale Notwendigkeit
Das Pentagon argumentiert, dass die USA ohne Zugang zur besten amerikanischen KI Gefahr laufen, hinter Widersacher zurückzufallen, die keinen solchen ethischen Beschränkungen unterliegen. Verteidigungsbeamte haben die Ablehnung von Anthropic als „naiv“ und „potenziell gefährlich“ für nationale Interessen bezeichnet.
Analysten von Creati.ai vermuten jedoch, dass Anthropic ein längerfristiges Ziel verfolgt. Durch die strikte Einhaltung seiner Charta bewahrt das Unternehmen die Integrität seiner Alignment-Forschung. Wenn Claude für Tödlichkeit umtrainiert würde, könnten die Beschränkungen „hilfreich, ehrlich und harmlos“, die das Modell für die geschäftliche Nutzung zuverlässig machen, grundlegend destabilisiert werden, was zu unvorhersehbarem Verhalten in nicht-militärischen Anwendungen führen könnte.
Berichte aus der Zentrale von Anthropic in San Francisco deuten auf eine hohe Moral nach der Entscheidung hin, obwohl die Besorgnis über die DPA-Drohungen groß bleibt. „Wir haben dies nicht gebaut, um Menschen zu verletzen“, sagte ein leitender Forscher gegenüber Creati.ai unter der Bedingung der Anonymität. „Wenn wir diese Grenze überschreiten, werden wir nur zu einem weiteren Rüstungsunternehmen.“
Während sich die Situation entwickelt, beobachtet die Tech-Welt, ob die Regierung Biden-Harris die Drohungen zur Durchsetzung des Defense Production Act wahrmachen wird. Ein solcher Schritt würde die Open-Source-Gemeinschaft abschrecken und könnte die KI-Entwicklung in den Untergrund oder ins Ausland treiben.
Vorerst bleibt Anthropic trotzig. Die Ablehnung des endgültigen Angebots des Pentagons ist mehr als ein Vertragsstreit; es ist ein Lackmustest für die Regierbarkeit superintelligenter Systeme. Wenn ein privates Unternehmen dem mächtigsten Militär der Welt aus ethischen Gründen erfolgreich die Stirn bieten kann, schafft dies einen Präzedenzfall dafür, dass Sicherheit und Moral immer noch die Flugbahn des technologischen Fortschritts bestimmen können.
Die kommenden Wochen werden entscheidend sein. Wird das Pentagon auf einen Konkurrenten wie Palantir oder OpenAI ausweichen, um die Lücke zu füllen, oder werden sie Anthropics Hand durch rechtlichen Zwang erzwingen? Wir vom Team von Creati.ai werden diese sich entwickelnde Geschichte weiterhin beobachten, da das Ergebnis das Verhältnis zwischen KI und dem Staat für Jahrzehnte definieren wird.