
In einem seltenen Zeichen branchenübergreifender Solidarität, die über Unternehmensrivalitäten hinausgeht, haben sich Mitarbeiter von Google und OpenAI zusammengeschlossen, um Anthropic in seinem hochriskanten Konflikt mit dem US-Verteidigungsministerium zu unterstützen. Am Freitag, den 27. Februar 2026, unterzeichneten über 300 Mitarbeiter von Google DeepMind und mehr als 60 von OpenAI einen offenen Brief mit dem Titel „We Will Not Be Divided“ (Wir lassen uns nicht spalten), in dem sie ihre jeweiligen Führungsspitzen auffordern, standhaft gegen die Forderung des Pentagons nach uneingeschränktem Zugang zu fortschrittlichen KI-Modellen zu bleiben.
Diese kollektive Aktion markiert einen entscheidenden Moment in der laufenden Debatte über die Militarisierung künstlicher Intelligenz. Sie verdeutlicht eine wachsende Kluft zwischen den Entwicklern von Grenz-KI-Modellen (Frontier AI), die ethische Leitplanken aufrechterhalten wollen, und Verteidigungsbeamten, die diese Technologien als kritische Vermögenswerte in einem „Wettlauf um Rüstungsgüter in Kriegszeiten“ betrachten. Während das Pentagon damit droht, den Defense Production Act anzuwenden, um Konformität zu erzwingen, signalisiert die Belegschaft der Tech-Branche, dass ethische „rote Linien“ in Bezug auf autonome Waffen und Inlandsüberwachung nicht verhandelbar sind.
Im Zentrum dieser Kontroverse steht die Weigerung von Anthropic, seine Nutzungsbedingungen zu ändern, um der Forderung des Pentagons nach einer „uneingeschränkten Nutzung“ seiner Claude-Modelle nachzukommen. Anthropic, unter der Leitung von CEO Dario Amodei, hat in seinen Regierungsverträgen konsequent zwei spezifische Verbote aufrechterhalten:
Das Verteidigungsministerium, vertreten durch Verteidigungsminister Pete Hegseth, hat Berichten zufolge gefordert, dass Anthropic auf diese spezifischen Einschränkungen verzichtet und „alle rechtmäßigen Zwecke“ zulässt. Während das Pentagon beteuert, keine Absicht zu haben, illegale Überwachung durchzuführen, argumentiert es, dass Vertragsklauseln, die eine „rechtmäßige“ Nutzung einschränken, operative Schwachstellen schaffen und einen gefährlichen Präzedenzfall für die Kontrolle von Anbietern über militärische Fähigkeiten schaffen.
Der offene Brief von Google- und OpenAI-Mitarbeitern unterstützt ausdrücklich die Position von Anthropic. „Wir hoffen, dass unsere Führungskräfte ihre Differenzen beiseitelegen und zusammenstehen, um weiterhin die aktuellen Forderungen des Kriegsministeriums abzulehnen“, heißt es in dem Brief. Die Unterzeichner argumentieren, dass die Druckkampagne der Regierung darauf ausgelegt ist, den ethischen Konsens der Branche zu spalten, indem die Unternehmen gegeneinander ausgespielt werden.
Die Pattsituation eskalierte Ende Februar 2026 erheblich, als das Pentagon Anthropic Berichten zufolge ein Ultimatum stellte. Eine Nichteinhaltung der Frist am Freitag könnte zur Anwendung des Defense Production Act (DPA) führen – einem Gesetz aus der Ära des Kalten Krieges, das es dem Präsidenten erlaubt, private Unternehmen zur Priorisierung nationaler Verteidigungsaufträge zu zwingen.
Darüber hinaus haben Verteidigungsbeamte gedroht, Anthropic als „Lieferkettenrisiko“ (Supply Chain Risk) einzustufen, falls es den Forderungen nicht nachkommt. Diese Einstufung, die normalerweise ausländischen Einheiten vorbehalten ist, die als feindlich gegenüber US-Interessen gelten (wie bestimmte chinesische Telekommunikationsunternehmen), würde Anthropic effektiv von der Vergabe öffentlicher Aufträge auf Bundesebene ausschließen und könnte seinen kommerziellen Ruf schädigen.
Der offene Brief verurteilt diese Taktiken als Vergeltungsmaßnahmen. „Das Kriegsministerium droht mit der Anwendung des Defense Production Act... alles als Vergeltung dafür, dass Anthropic an seinen roten Linien festhält“, heißt es im Text. Die Mitarbeiter warnen davor, dass das Pentagon, sollte es ihm gelingen, Anthropic zu zwingen, seine Aufmerksamkeit als Nächstes auf Google und OpenAI richten wird, um die Entfernung ihrer verbleibenden Schutzmaßnahmen unter dem Vorwand der Standardisierung zu fordern.
Ein zentrales Thema des Mitarbeiterbriefs ist der Vorwurf, dass das Pentagon eine „Teile und herrsche“-Strategie anwendet. Durch separate Verhandlungen mit Google, OpenAI und Anthropic schafft das Verteidigungsministerium ein Gefangenendilemma: Jedes Unternehmen befürchtet, dass ein Konkurrent nachgibt und sich die lukrativen Regierungsaufträge sichert, wenn es selbst an ethischen Standards festhält.
„Sie versuchen, jedes Unternehmen mit der Angst zu spalten, dass das andere nachgeben wird“, erklärt der Brief. „Diese Strategie funktioniert nur, wenn keiner von uns weiß, wo die anderen stehen.“
Diese Angst ist nicht unbegründet. Berichte deuten darauf hin, dass OpenAI und Google zuvor mehr Flexibilität in ihren Verhandlungen über die „nicht klassifizierte“ militärische Nutzung gezeigt haben. Anfang 2024 entfernte OpenAI stillschweigend das ausdrückliche Verbot von „Militär und Kriegsführung“ aus seinen Nutzungsrichtlinien und ersetzte es durch ein allgemeineres Verbot von „Schaden“, angeblich um Kooperationen mit dem Militär im Bereich Cybersicherheit und Katastrophenhilfe zu ermöglichen. Die aktuelle Forderung nach uneingeschränkter tödlicher Autonomie und Überwachungsfähigkeiten scheint jedoch selbst für die Belegschaft dieser nachgiebigeren Unternehmen einen Schritt zu weit zu gehen.
Um die Landschaft dieses Konflikts zu verstehen, ist es wichtig, die aktuellen öffentlichen Positionen der großen KI-Labore hinsichtlich der militärischen Integration zu vergleichen.
Tabelle: Große KI-Labore und militärische Richtlinien
| Unternehmen | Kernposition zur militärischen Nutzung | Spezifische „rote Linien“ | Status der Beziehungen zum Pentagon |
|---|---|---|---|
| Anthropic | Strikte bedingte Zusammenarbeit | Nicht verhandelbar: Keine inländische Überwachung. Nicht verhandelbar: Keine autonomen tödlichen Waffen. |
Feindselig: Drohungen mit der DPA-Anwendung und Einstufung als „Lieferkettenrisiko“. |
| OpenAI | Kollaborativ / In Entwicklung | Lehnt autonome Waffen generell ab. Richtlinienänderung 2024 zur Erlaubnis der Nutzung für „nationale Sicherheit“. |
Aktive Verhandlungen: CEO Sam Altman strebt Berichten zufolge ähnliche Schutzmaßnahmen wie Anthropic an. |
| Vorsichtig / Interne Spannungen | KI-Prinzipien (2018): Keine Waffen oder Überwachung, die Menschenrechte verletzen. Verbietet Technologie, deren Hauptzweck Schaden ist. |
Angespannt: Mitarbeiter setzen Führung (Jeff Dean) unter Druck, die Zusagen von 2018 einzuhalten. | |
| Microsoft | Strategischer Partner | Richtet sich nach der Legalität des Kunden (DoD). Stellt Infrastruktur für klassifizierte Modelle bereit. |
Integriert: Tief in die Verteidigungsinfrastruktur über die Azure/OpenAI-Partnerschaft eingebettet. |
Die aktuelle Welle des Aktivismus weist direkte Parallelen zur „Project Maven“-Kontroverse bei Google im Jahr 2018 auf. Damals unterzeichneten Tausende von Google-Mitarbeitern eine Petition gegen einen Pentagon-Vertrag zur Nutzung von KI für die Analyse von Drohnenaufnahmen, was das Unternehmen schließlich zwang, den Vertrag auslaufen zu lassen und eine Reihe von „KI-Prinzipien“ (AI Principles) zu veröffentlichen, die den Einsatz von Google-KI für Waffen untersagten.
Das geopolitische Klima des Jahres 2026 ist jedoch deutlich anders. Mit der Intensivierung des globalen KI-Wettbewerbs und wahrgenommenen Bedrohungen durch rivalisierende Nationen ist der Druck zur Bereitstellung „souveräner KI“-Fähigkeiten gestiegen. Der Brief „We Will Not Be Divided“ deutet darauf hin, dass Tech-Mitarbeiter sich akut bewusst sind, dass die ethischen Siege von 2018 erodieren.
„Dieser Brief dient dazu, ein gemeinsames Verständnis und Solidarität angesichts dieses Drucks zu schaffen“, schrieben die Mitarbeiter. Die Koalition umfasst Ingenieure, Forscher und Richtlinienmitarbeiter, die argumentieren, dass der Einsatz von KI in der Kriegsführung eine strikte menschliche Rechenschaftspflicht erfordert – ein Merkmal, das vollautonomen Systemen von Natur aus fehlt.
Die Reaktion der Unternehmensführung war gemischt, deutet aber darauf hin, dass der Druck wirkt. Nach der Veröffentlichung des Briefes tauchten Berichte auf, wonach OpenAI-CEO Sam Altman sich an die Mitarbeiter wandte und erklärte, dass auch er eine Vereinbarung mit dem Pentagon anstrebe, die rote Linien ähnlich denen von Anthropic enthalte. Dies deutet darauf hin, dass die von den Mitarbeitern geforderte „Einheitsfront“ sich möglicherweise auch auf der Führungsebene bildet.
Bei Google richtet sich der interne Druck gegen Jeff Dean, Chief Scientist von Google DeepMind. Ein separater interner Brief, der von über 100 Google-Mitarbeitern unterzeichnet wurde, forderte ihn ausdrücklich auf sicherzustellen, dass Google die Position von Anthropic nicht untergräbt.
Die Konfrontation zwischen Anthropic und dem Pentagon, verstärkt durch die Unterstützung von Google- und OpenAI-Mitarbeitern, stellt einen kritischen Wendepunkt in der Geschichte der Technologie-Governance dar. Sie wirft eine grundlegende Frage auf: Wer entscheidet letztendlich darüber, wie leistungsstarke KI eingesetzt wird – die Regierung, die sie finanziert, oder die Schöpfer, die ihre Risiken verstehen?
Wenn das Pentagon den Defense Production Act erfolgreich einsetzt, um Anthropics Handeln zu erzwingen, könnte dies einen Präzedenzfall dafür schaffen, dass nationale Sicherheitsinteressen über ethische Verpflichtungen des Privatsektors gehen. Umgekehrt, wenn die „Einheitsfront“ der Tech-Arbeiter hält, könnte dies das Militär dazu zwingen zu akzeptieren, dass selbst in der Kriegsführung der Einsatz künstlicher Intelligenz Grenzen haben muss.
Während die Frist am Freitag verstreicht und die Branche auf den nächsten Schritt des Pentagons wartet, dient die von diesen über 360 Mitarbeitern gezeigte Solidarität als Erinnerung daran, dass das menschliche Element in der KI-Entwicklung eine starke politische Kraft bleibt.
Dieser Bericht basiert auf Ereignissen, die bis zum 1. März 2026 eingetreten sind.