
In einer heftigen Eskalation des ideologischen Krieges zwischen den führenden KI-Laboren (AI labs) des Silicon Valley hat der CEO von Anthropic, Dario Amodei, den Rivalen OpenAI beschuldigt, „Sicherheitstheater“ (Safety Theater) zu betreiben und in Bezug auf seine jüngste Partnerschaft mit dem US-Verteidigungsministerium „glatte Lügen“ zu verbreiten. Die Anschuldigungen, die in einem internen Memo enthüllt wurden, über das The Information berichtete, markieren einen endgültigen Bruch in der Einheitsfront der Branche zum Thema KI-Sicherheit und zertrümmern die höfliche Fassade, die die Beziehung zwischen den beiden Kraftzentren lange Zeit geprägt hat.
Das Memo, das diese Woche an die Mitarbeiter von Anthropic verteilt wurde, erscheint wenige Tage, nachdem OpenAI eine umstrittene Vereinbarung zur Einführung seiner Modelle in den geheimen Netzwerken des Pentagons bekannt gegeben hatte – ein Deal, der nur wenige Stunden nach dem Berichten zufolge erfolgten Rückzug von Anthropic aus ähnlichen Verhandlungen über ethische „rote Linien“ (Red Lines) zustande kam.
Amodeis interne Kommunikation verzichtet auf geschäftliche diplomatische Nettigkeiten. Dem Bericht zufolge zielte er spezifisch auf die öffentliche Darstellung des Pentagon-Deals durch OpenAI-CEO Sam Altman ab. Altman hatte die Vereinbarung als Sieg für den verantwortungsvollen KI-Einsatz charakterisiert und behauptet, OpenAI habe erfolgreich strenge Schutzmaßnahmen gegen autonome Waffen und Inlandsüberwachung ausgehandelt – Bedingungen, die Anthropic angeblich nicht sichern konnte.
„Wir haben unsere roten Linien tatsächlich mit Integrität gewahrt, anstatt mit ihnen zusammenzuarbeiten, um ein ‚Sicherheitstheater‘ zum Wohle der Mitarbeiter zu inszenieren“, schrieb Amodei Berichten zufolge. Er ging noch weiter und bezeichnete Altmans Narrativ als „glatte Lügen“ und als einen „falschen Versuch, sich als Friedensstifter zu präsentieren“ in einem chaotischen regulatorischen Umfeld.
Der Kern von Amodeis Beschwerde scheint der Inhalt der „Schutzmaßnahmen“ zu sein, die OpenAI angeblich eingeführt hat. Während Anthropic die Bedingungen des Pentagons ablehnte, weil sie den Einsatz ihrer KI für Massenüberwachung im Inland oder den vollautonomen tödlichen Einsatz vertraglich nicht verbieten wollten, argumentieren Kritiker, dass der Deal von OpenAI lediglich die Einhaltung „bestehender Gesetze“ erfordert – ein Standard, vor dem Datenschützer warnen, dass er weitaus durchlässiger sei als ein vertragliches Verbot.
Das Timing dieser Ereignisse hat die Intensität des Konflikts befeuert. Ende Februar 2026 scheiterten die Verhandlungen zwischen Anthropic und dem Kriegsministerium (ehemals Verteidigungsministerium). Anthropic beharrte auf zwei nicht verhandelbaren Bedingungen:
Das Pentagon lehnte diese Bedingungen ab. In einem drakonischen Vergeltungsschritt stufte die Behörde Anthropic als „Lieferkettenrisiko“ ein und verbot die Technologie faktisch für den Einsatz auf Bundesebene.
Weniger als 24 Stunden später, an einem Freitagabend, verkündete Sam Altman die Partnerschaft von OpenAI mit derselben Behörde. Altman gab in einem späteren Post zu, dass der Deal „überhastet“ und „nachlässig“ war, behauptete jedoch weiterhin, dass OpenAI die notwendigen ethischen Leitplanken gesichert habe. Amodeis Memo deutet darauf hin, dass OpenAI schlichtweg vor den Forderungen der Regierung kapituliert hat, um den lukrativen Auftrag zu erhalten, und diese Kapitulation als „strategischen Kompromiss“ umverpackt hat.
Die folgende Tabelle skizziert die entscheidenden Abweichungen in der Herangehensweise der beiden Unternehmen an die militärische Zusammenarbeit (Stand März 2026).
| Einstellung zur militärischen Zusammenarbeit | Anthropic | OpenAI |
|---|---|---|
| Primäre ethische „Rote Linien“ | Vertragliches Verbot von Massenüberwachung und autonomem Waffeneinsatz. | Berufung auf „bestehende Gesetze“ und Richtlinien zur „menschlichen Verantwortung“. |
| Ergebnis der Pentagon-Gespräche | Deal abgelehnt; vom DoD als „Lieferkettenrisiko“ eingestuft. | Vertrag über Einsatz in geheimen Netzwerken unterzeichnet. |
| Öffentliche Darstellung des CEO | Warnte vor „unkontrollierter Regierungsgewalt“ und weigerte sich, „guten Gewissens zuzustimmen“. | Behauptete Erfolg bei der Aushandlung von Schutzmaßnahmen; gab später zu, dass der Prozess „nachlässig“ war. |
| Reaktion der Mitarbeiter | Interne Solidarität; offene Briefe, die die Ablehnung des CEO unterstützen. | Erhebliche Unruhe; Verlust von Spitzenforschern unter Berufung auf „Vertrauensfragen“. |
| Status in Regierungsnetzwerken | Verboten/Eingeschränkt. | Für den geheimen Einsatz zugelassen. |
Zusätzlich zur Kränkung beginnt sich der ideologische Riss in einem Talentabfluss zu manifestieren. In einem schweren Schlag für die Forschungsleitung von OpenAI ist der Vice President of Research, Max Schwarzer, zurückgetreten, um zu Anthropic zu wechseln. Schwarzer, eine Schlüsselfigur in den Post-Training- und Reasoning-Teams von OpenAI, gab seinen Abschied auf X (ehemals Twitter) bekannt und erklärte, dass „viele der Menschen, denen ich am meisten vertraue und die ich am meisten respektiere, sich in den letzten Jahren Anthropic angeschlossen haben“.
Schwarzers Abgang ist kein Einzelfall, sondern Teil eines wachsenden Musters, bei dem sicherheitsbewusste Forscher zu Anthropic abwandern, da sie es als das letzte Bollwerk einer prinzipientreuen KI-Entwicklung ansehen. Dieser „Brain Drain“ verstärkt Amodeis internes Narrativ, dass OpenAI im Streben nach kommerzieller und staatlicher Dominanz seinen moralischen Kompass verliert.
Der Streit zwischen Amodei und Altman ist mehr als eine persönliche Fehde; er stellt ein Schisma in der Philosophie der KI-Governance (AI Governance) dar. Der „pragmatische“ Ansatz von OpenAI argumentiert, dass die Zusammenarbeit mit dem Militär unvermeidlich ist und dass es für ein US-Unternehmen besser ist, den Einsatz von innen heraus zu gestalten. Anthropics „prinzipientreue“ Haltung postuliert, dass Technologieunternehmen als Kontrolle gegenüber der Staatsmacht fungieren müssen, selbst um den Preis massiver Regierungsverträge.
Indem Amodei OpenAI der Lüge bezichtigt, signalisiert er, dass die Ära der kooperativen „Co-opetition“ vorbei ist. Während das Pentagon generative KI (Generative AI) in seine Tötungsketten und Überwachungsapparate integriert, zwingt die Branche ihre klügsten Köpfe dazu, eine Seite zu wählen: den pragmatischen Kollaborateur oder den trotzigen Kriegsdienstverweigerer aus Gewissensgründen. Vorerst hat das Kriegsministerium OpenAI gewählt, aber die Forscher, die die Zukunft bauen, scheinen mit den Füßen abzustimmen.