
In einem entscheidenden Moment für die Branche der künstlichen Intelligenz (Artificial Intelligence, AI) wurde die Landschaft der staatlichen Verteidigungsaufträge innerhalb eines einzigen 24-Stunden-Fensters radikal neu gestaltet. Am Freitag, dem 28. Februar 2026, kündigte Sam Altman, CEO von OpenAI, eine wegweisende Vereinbarung zur Bereitstellung der fortschrittlichen Modelle des Unternehmens innerhalb der geheimen Netzwerke des Pentagons an. Diese Ankündigung stand in krassem, polarisiertem Gegensatz zum Schicksal des Konkurrenzlabors Anthropic, das von der Trump-Administration offiziell als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft wurde, was es effektiv von Bundesgeschäften ausschließt.
Die gleichzeitigen Entwicklungen markieren den Höhepunkt monatelanger eskalierender Spannungen zwischen den führenden KI-Laboren des Silicon Valley und einem Weißen Haus, das entschlossen ist, einen „uneingeschränkten Zugang“ zu Technologien für die nationale Verteidigung durchzusetzen. Während OpenAI die Anforderungen der Administration durch das navigiert hat, was es als „technische Schutzmaßnahmen“ beschreibt, hat Anthropics Weigerung, bei seinen Constitutional AI-Prinzipien nachzugeben, zu einer beispiellosen Strafmaßnahme gegen ein amerikanisches Unternehmen geführt.
Am späten Freitagabend bestätigte Sam Altman, dass OpenAI sich mit dem Verteidigungsministerium (Department of Defense) – von der aktuellen Administration und in Altmans Erklärung als „Kriegsministerium“ (Department of War, DoW) bezeichnet – auf Bedingungen geeinigt hat. Der Deal gewährt dem Militär Zugang zu den Frontier-Modellen von OpenAI für klassifizierte Operationen. Ein Schritt, von dem Kritiker behaupten, er widerspreche der ursprünglichen gemeinnützigen Charta des Unternehmens, den Altman jedoch als notwendige Entwicklung der KI-Sicherheit (AI Safety) in der demokratischen Regierungsführung verteidigt.
Die Vereinbarung konzentriert sich auf eine „Cloud-only“-Bereitstellungsarchitektur. Laut OpenAI ermöglicht diese Struktur die Aufrechterhaltung eines „Sicherheits-Stacks“, der spezifische rote Linien auch innerhalb klassifizierter Umgebungen durchsetzt.
Wichtigste Bestimmungen des Deals zwischen OpenAI und dem Pentagon:
„In all unseren Interaktionen zeigte das DoW tiefen Respekt für Sicherheit und den Wunsch nach einer Partnerschaft, um das bestmögliche Ergebnis zu erzielen“, schrieb Altman in einer Erklärung auf X. Er behauptete weiter, dass der Vertrag von OpenAI „bessere Garantien und verantwortungsvollere Schutzmaßnahmen“ biete als frühere Vereinbarungen von Wettbewerbern, wobei er implizit auf die nun hinfällige Vereinbarung von Anthropic anspielte.
Während die Führung von OpenAI ihre neue Partnerschaft feierte, sah sich Anthropic einem existenziellen regulatorischen Angriff gegenüber. Der Konflikt erreichte Berichten zufolge am Donnerstag einen Bruchpunkt, als Anthropic ein Ultimatum des Pentagons ablehnte, spezifische Schutzplanken (Guardrails) in Bezug auf autonome Waffen und Überwachungsfähigkeiten zu entfernen.
Verteidigungsminister Pete Hegseth reagierte mit einem scharfen Tadel und bezeichnete die Weigerung des Unternehmens als „Meisterklasse in Arroganz und Verrat“. Infolgedessen hat das Verteidigungsministerium Anthropic offiziell als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft. Diese Klassifizierung, die historisch ausländischen Organisationen vorbehalten war, die als Bedrohung für die nationale Sicherheit gelten – wie Huawei oder Kaspersky Lab –, wird nun auf ein in San Francisco ansässiges Startup angewendet, das massiv von Amazon und Google finanziert wird.
Präsident Trump verschärfte die Rhetorik auf Truth Social und charakterisierte die Unternehmensführung als „radikale Linke, Woke“-Akteure, die versuchen würden, das Militär zu „nötigen“. Die Administration hat eine Richtlinie für alle Bundesbehörden herausgegeben, die Nutzung der Technologie von Anthropic „unverzüglich einzustellen“, obwohl eine sechsmonatige Auslaufphase für bestimmte kritische Verteidigungssysteme gewährt wurde, um auf alternative Anbieter umzustellen – wahrscheinlich OpenAI oder Palantir.
Das Schisma verdeutlicht eine fundamentale Meinungsverschiedenheit über die Rolle privater Technologieunternehmen in der nationalen Sicherheit. Die Trump-Administration hat deutlich gemacht, dass sie die Weigerung, militärische Anforderungen zu erfüllen, als mangelnden Patriotismus ansieht, während Anthropic darauf beharrt, dass seine Weigerung auf ethischen Pflichten basiert, die über staatliche Anordnungen hinausgehen.
Die folgende Tabelle skizziert die entscheidenden Unterschiede darin, wie die beiden führenden KI-Labore diese hochriskante Verhandlung angegangen sind:
Tabelle: Vergleichende Analyse der Verteidigungsstrategien von OpenAI und Anthropic
| Metrik | OpenAIs Ansatz | Anthropics Ansatz |
|---|---|---|
| Primäre Haltung | Zusammenarbeit mit „technischen Schutzmaßnahmen“ | Ablehnung basierend auf ethischen „roten Linien“ |
| Vertragsstatus | Aktiv, erweiterter klassifizierter Zugang | Gekündigt, als „Lieferkettenrisiko“ eingestuft |
| Wichtigstes Zugeständnis | Zustimmung zu den Bedingungen des „Department of War“ | Verweigerung uneingeschränkter Modellmodifikation |
| Haltung zur Überwachung | Durch Vertragsklauseln untersagt | Fähigkeit auf technischer Ebene verweigert |
| Verhältnis zur Administration | Kollaborativ, „patriotisches“ Branding | Gegnerisch, als „Woke/Risiko“ abgestempelt |
| Bereitstellungsmodell | Cloud-only (Kontrolle behalten) | Verweigerung bedingungsloser Edge-Bereitstellung |
Die Einstufung von Anthropic als Lieferkettenrisiko ist rechtlich und wirtschaftlich von enormer Bedeutung. Sie verbietet nicht nur direkte Regierungsverträge, sondern untersagt effektiv jedem Bundesauftragnehmer, die Tools von Anthropic in seinen Arbeitsabläufen zu verwenden. Für eine industrielle Basis der Verteidigung, die stark auf vernetzten Software-Lieferketten basiert, zwingt dies Unternehmen wie Lockheed Martin, Booz Allen Hamilton und potenziell sogar Cloud-Anbieter wie AWS dazu, die Claude-Modelle von Anthropic aus ihren Ökosystemen zu trennen oder zu entfernen, um konform zu bleiben.
Rechtsexperten erwarten einen heftigen Rechtsstreit. Anthropic hat geschworen, die Einstufung anzufechten, und bezeichnete sie als „rechtlich unhaltbar“ und als Akt der „Einschüchterung“. Das Unternehmen argumentiert, dass der Exekutive die Befugnis fehle, ein inländisches Unternehmen lediglich aufgrund einer vertraglichen Meinungsverschiedenheit über Nutzungsbedingungen auf eine schwarze Liste zu setzen. Unter dem Defense Production Act jedoch – dessen Anwendung die Administration angedroht hat – besitzt die Bundesregierung weitreichende Befugnisse, um industrielle Ressourcen für die nationale Verteidigung zu lenken.
Die Nachricht hat Schockwellen durch den KI-Sektor gesendet. Investoren bewerten bereits den langfristigen Wert von „Safety-first“-Laboren neu, die riskieren, Regierungskunden zu verprellen. Es wird erwartet, dass die Bewertung von OpenAI durch die Gewissheit langfristiger Regierungseinnahmen positiven Auftrieb erhält, während Anthropic vor einer potenziellen Liquiditätskrise steht, falls die Blacklist kommerzielle Unternehmenskunden verschreckt, die eine regulatorische Ansteckung befürchten.
Darüber hinaus signalisiert die Verwendung des Begriffs „Department of War“ durch die Administration – eine Rückkehr zur Bezeichnung von vor 1947 – einen breiteren ideologischen Wandel. Dies deutet auf eine aggressivere, kampforientierte Haltung der US-Verteidigungspolitik hin, die eine totale Ausrichtung ihrer Industriepartner fordert.
Die Geschwindigkeit, mit der sich die Beziehung zwischen Anthropic und dem Weißen Haus verschlechterte, unterstreicht die Volatilität des aktuellen regulatorischen Umfelds.
Tabelle: Wichtige Ereignisse, die zur Blacklist führten
| Datum/Uhrzeit | Ereignisbeschreibung | Hauptakteur |
|---|---|---|
| Juli 2025 | Anthropic unterzeichnet ersten 200-Millionen-Dollar-Pilotvertrag. | DOD / Anthropic |
| 26. Feb. 2026 | Pentagon stellt Ultimatum für „uneingeschränkten Zugang“. | Verteidigungsminister Hegseth |
| 27. Feb. 2026 | Anthropic lehnt Forderungen ab; verpasst Frist um 17:01 Uhr. | CEO Dario Amodei |
| 27. Feb. 2026 | Trump ordnet Bundesverbot an; Hegseth erteilt „Risiko“-Label. | Weißes Haus |
| 28. Feb. 2026 | OpenAI verkündet Deal mit „Kriegsministerium“. | Sam Altman |
| 28. Feb. 2026 | Anthropic kündigt rechtliche Schritte gegen Einstufung an. | Anthropic Legal Team |
Während sich der Staub über dieser chaotischen Woche legt, ist die Botschaft aus Washington unmissverständlich: Im Wettlauf um die KI-Vorherrschaft verlangt die US-Regierung Unterordnung von ihren Anbietern. OpenAI hat sich für die Anpassung entschieden und einen Rahmen geschaffen, der es ihm ermöglicht, dem „Kriegsministerium“ zu dienen, während es behauptet, seine Sicherheitsmission aufrechtzuerhalten. Anthropic, das an seinen Prinzipien festgehalten hat, sieht sich nun dem vollen Gewicht des Bundesapparats gegenüber.
Der Ausgang von Anthropics rechtlicher Anfechtung wird wahrscheinlich die Grenzen der unternehmerischen Autonomie im Zeitalter der nationalen Sicherheits-KI definieren. Für den Moment jedoch hat das Pentagon seine Wahl getroffen, und OpenAI ist in die Lücke getreten.