
In einer dramatischen Kehrtwende, die die spannungsgeladenen Reibungen zwischen dem Silicon Valley und Washington unterstreicht, hat Anthropic-CEO Dario Amodei Berichten zufolge die Verhandlungen mit hochrangigen Pentagon-Vertretern wieder aufgenommen. Diese Entwicklung erfolgt nur wenige Tage, nachdem das Verteidigungsministerium (Department of Defense, DoD) das KI-Sicherheits-Startup offiziell als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft hat – eine schwere Klassifizierung, die normalerweise ausländischen Gegnern vorbehalten ist – und eine konkurrierende Partnerschaft mit OpenAI eingegangen ist.
Laut Kreisen, die mit der Angelegenheit vertraut sind, führt Amodei derzeit „letzte Rettungsversuche“ in Form von Gesprächen mit Emil Michael, dem Staatssekretär im Verteidigungsministerium für Forschung und Technik. Ziel ist es, einen Kompromiss zu finden, der es Anthropic ermöglichen würde, seine Verteidigungsaufträge zu behalten, ohne bei den ethischen Leitplanken, die das ursprüngliche Zerwürfnis auslösten, vollständig zu kapitulieren.
Der Hintergrund dieser erneuten Gespräche ist ein beispielloser Schritt des DoD. Nach dem Scheitern der ersten Verhandlungen am vergangenen Freitag veranlasste Verteidigungsminister Pete Hegseth die Einstufung von Anthropic als „Lieferkettenrisiko“. Diese Bezeichnung fungiert faktisch als schwarze Liste, die nicht nur Direktverträge mit dem Pentagon verbietet, sondern es auch jedem Verteidigungsunternehmen oder Zulieferer untersagt, kommerzielle Aktivitäten mit Anthropic zu unterhalten.
Für ein in den USA ansässiges Technologieunternehmen ist dieses Label katastrophal. Es droht, Anthropic von einem riesigen Ökosystem staatlicher Partner abzuschneiden, und könnte private Investitionen abschrecken, da es signalisiert, dass das Unternehmen im Widerspruch zu nationalen Sicherheitsinteressen steht.
Der Konflikt dreht sich um spezifische Vertragsklauseln bezüglich der KI-Nutzung. Anthropic hat sich standhaft geweigert, Klauseln zu entfernen, die dem Militär untersagen würden, seine Claude-Modelle für „Massenüberwachung im Inland“ und „tödliche autonome Waffen“ einzusetzen. Das Pentagon wiederum hat die Streichung dieser Einschränkungen gefordert und auf dem Recht beharrt, die Technologie für „alle rechtmäßigen Zwecke“ zu nutzen.
Das Scheitern der vorangegangenen Gespräche hing Berichten zufolge an einer einzigen, spezifischen Formulierung. Interne Memos deuten darauf hin, dass das DoD anbot, die weitergehenden Bedingungen von Anthropic nur dann zu akzeptieren, wenn das Unternehmen eine Klausel streicht, die die „Analyse von in großen Mengen erfassten Daten“ einschränkt.
Amodei betrachtete diese Forderung mit tiefem Misstrauen und interpretierte sie als Schlupfloch, das genau jene Szenarien der Massenüberwachung ermöglichen würde, die das Unternehmen zu verhindern sucht. „Wir fanden das sehr verdächtig“, schrieb Amodei in einer Notiz an die Mitarbeiter und charakterisierte die Forderung der Regierung als eine rote Linie, die das Unternehmen nicht guten Gewissens überschreiten könne.
Die Spannungen wurden zudem durch persönliche Feindseligkeiten angeheizt. Emil Michael, der Beamte, der Amodei nun gegenüberitzt, kritisierte den CEO letzte Woche öffentlich in den sozialen Medien und warf ihm einen „Gott-Komplex“ vor, weil er der nationalen Verteidigung Technologie vorenthalte. Die Wiederaufnahme der Gespräche deutet darauf hin, dass pragmatische geschäftliche Überlebensinstinkte eine Deeskalation dieser Rhetorik erzwingen.
Während Anthropic an seinen ethischen Prinzipien festhielt, bewegte sich sein Hauptkonkurrent OpenAI schnell, um das Vakuum zu nutzen. Innerhalb weniger Stunden nach dem Bruch zwischen Anthropic und dem Pentagon verkündete OpenAI-CEO Sam Altman eine neue Partnerschaft mit dem DoD.
Die Vereinbarung von OpenAI steht Berichten zufolge im Einklang mit der Forderung des Pentagons nach „allen rechtmäßigen Zwecken“. Während OpenAI betont, dass seine Sicherheitsstandards robust bleiben, hat Amodei diesen Schritt scharf kritisiert und die Behauptungen der Konkurrenz über Sicherheit in diesem Kontext als „Sicherheitstheater“ und „verlogen“ bezeichnet.
Die unterschiedlichen Strategien haben zu einer klaren Zweiteilung in der KI-Verteidigungslandschaft geführt:
Vergleich der KI-Giganten im Verteidigungssektor (März 2026)
| Unternehmen | Zentrale Haltung zu Verteidigungsverträgen | Aktueller Pentagon-Status |
|---|---|---|
| Anthropic | Verweigert die Entfernung von Anti-Überwachungsklauseln; blockiert spezifisch „Massendatenanalyse“. | Eingestuft als „Lieferkettenrisiko“; Versuch der Neuausschreibung. |
| OpenAI | Stimmt dem Standard „alle rechtmäßigen Zwecke“ zu; vertraut auf internen „Safety Stack“. | Aktiver Vertrag unterzeichnet; ersetzt Anthropic in wichtigen Workflows. |
| Google DeepMind | Vorsichtiges Engagement; Fokus auf Cybersicherheit und Logistik statt kinetischer Operationen. | Behält bestehende Verträge bei; beobachtet die aktuellen Auswirkungen. |
Die wieder aufgenommenen Verhandlungen zwischen Amodei und Michael signalisieren, dass keine Seite von einer dauerhaften Entfremdung profitieren dürfte. Für das Pentagon verringert der Verlust des Zugangs zu Anthropics Claude-Modellen – die für ihre Interpretierbarkeit und Argumentationsfähigkeit geschätzt werden – die Vielfalt ihres KI-Arsenals. Für Anthropic ist das Label „Lieferkettenrisiko“ eine existenzielle finanzielle Bedrohung, die seine 60-Milliarden-Dollar-Bewertung gefährden und kommerzielle Partner abschrecken könnte, die es vermeiden wollen, mit dem DoD in Konflikt zu geraten.
Branchenanalysten vermuten, dass ein Kompromiss „Ausnahmeregelungen“ (Carve-outs) beinhalten könnte, bei denen Anthropics Modelle für spezifische, nicht-kampfbezogene Logistik- und Geheimdienstaufgaben zugelassen werden, während sie von Überwachungs- oder autonomen Waffensystemen abgeschirmt bleiben. Das Vertrauen bleibt jedoch gering.
Das Ergebnis dieser Gespräche wird wahrscheinlich einen Präzedenzfall dafür schaffen, wie die US-Regierung private KI-Labore zur Zusammenarbeit zwingt oder mit ihnen kooperiert. Wenn Anthropic gezwungen ist zu kapitulieren, um von der schwarzen Liste gestrichen zu werden, sendet dies eine beunruhigende Botschaft an die Branche: Dass ethische rote Linien unhaltbar sein könnten, wenn sie mit den Forderungen des Staates kollidieren. Sollte Amodei hingegen Zugeständnisse erwirken, könnte dies den Ansatz der „konstitutionellen KI“ (Constitutional AI) als tragfähiges Geschäftsmodell sogar im Verteidigungssektor validieren.
Seit Freitagmorgen bleibt die Einstufung aktiv, und der Technologiesektor wartet ab, ob das Label „Risiko“ aufgehoben werden kann, bevor der Schaden dauerhaft wird.