
In einem bedeutenden Umbruch in der technischen Führungsebene von OpenAI ist Max Schwarzer, der Vice President of Research und Head of Post-Training (Post-Training), zurückgetreten, um sich dem Konkurrenzlabor Anthropic anzuschließen. Die Ankündigung, die am 3. März 2026 über X (ehemals Twitter) erfolgte, kommt nur wenige Stunden, nachdem OpenAI eine umstrittene Partnerschaft mit dem U.S. Department of War (ehemals Department of Defense) formalisiert hat – ein Deal, der heftige Debatten über die Militarisierung künstlicher Intelligenz (KI) entfacht hat.
Schwarzers Abgang markiert den jüngsten hochkarätigen Ausstieg in dem, was Branchenanalysten als „werteorientierte Migration“ von OpenAI zu Anthropic bezeichnen. Während Schwarzer öffentlich den Wunsch äußerte, zur Forschung als Individual Contributor (IC) im Bereich Verstärkendes Lernen (Reinforcement Learning) zurückzukehren, hat der Zeitpunkt seines Rücktritts – zeitgleich mit dem öffentlichen Widerstand gegen die neue militärische Ausrichtung von OpenAI – in der KI-Community für scharfe Kritik gesorgt.
Max Schwarzer hinterlässt bei OpenAI ein monumentales Erbe. Als Head of Post-Training war er direkt für die Verfeinerung und Sicherheitsausrichtung (Safety Alignment) der fortschrittlichsten Modelle des Unternehmens verantwortlich. Seine Amtszeit umfasste die Auslieferung der gesamten GPT-5-Linie (einschließlich GPT-5.1, 5.2 und dem auf Coding spezialisierten 5.3-Codex) und der auf logisches Denken fokussierten o-Serie (o1 und o3).
„Ich bin unglaublich stolz auf all die Arbeit, an der ich hier mitgewirkt habe“, schrieb Schwarzer in seiner Abschiedserklärung. Er hob seine Beiträge zur Schaffung des Reasoning-Paradigmas zusammen mit Kollegen und zur Skalierung des Test-Time Computes hervor. Seine Erklärung betonte jedoch besonders die Anziehungskraft der Kultur von Anthropic: „Viele der Menschen, denen ich am meisten vertraue und die ich am meisten respektiere, sind in den letzten Jahren zu Anthropic gewechselt.“
Schwarzers Wechsel ist nicht nur eine administrative Änderung; er stellt einen Transfer von entscheidendem institutionellem Wissen dar. Post-training ist die Phase, in der rohe KI-Modelle auf Verhalten, Sicherheit und Nützlichkeit getrimmt werden – was dem Modell effektiv seine „Persönlichkeit“ und ethische Schranken verleiht. Durch den Wechsel zu Anthropic bringt Schwarzer tiefgreifende Expertise in den proprietären Methoden zur Ausrichtung von GPT-5 und o3 mit und stärkt damit das ohnehin schon beeindruckende Forschungsteam von Anthropic.
Der Kontext von Schwarzers Rücktritt kann nicht vom geopolitischen Sturm entkoppelt werden, der derzeit das Silicon Valley umhüllt. Anfang dieser Woche kündigte das Pentagon – in jüngsten Aktualisierungen offizieller Dokumente als Department of War bezeichnet – eine entscheidende Wende in seiner KI-Beschaffungsstrategie an.
Nach einer Richtlinie der Trump-Administration wurden Bundesbehörden angewiesen, Verträge mit Anthropic einzustellen, nachdem das Unternehmen sich geweigert hatte, auf seine „roten Linien“ (Red Lines) in Bezug auf Massenüberwachung und autonome Waffen zu verzichten. Die Weigerung von Anthropic, seine Nutzungsbedingungen anzupassen, um den umfassenden Zugangsforderungen des Ministeriums nachzukommen, führte zu einem schnellen „Dumping“ ihrer Dienste.
OpenAI trat im Gegenzug in diese Lücke. CEO Sam Altman bestätigte eine neue Vereinbarung, die den Einsatz von OpenAI-Modellen in klassifizierten Netzwerken ermöglicht. Während Altman später zugab, dass die anfängliche Handhabung der Ankündigung „opportunistisch und schlampig“ war, und klarstellte, dass der Deal Schutzmaßnahmen gegen inländische Überwachung enthalte, war die Außenwirkung schädlich.
Die folgende Tabelle skizziert die gegensätzlichen Wege, die die beiden KI-Giganten in Bezug auf die militärische Zusammenarbeit eingeschlagen haben – eine Spaltung, die anscheinend Talententscheidungen beeinflusst.
Tabelle: Der militärische Stillstand zwischen OpenAI und Anthropic (März 2026)
| Merkmal | OpenAIs Haltung | Anthropics Haltung |
|---|---|---|
| Vertragsstatus | Unterzeichneter Deal für klassifizierten Einsatz (März 2026) | Vertragsverhandlungen gescheitert/beendet |
| Haupteinwand | Keiner; Einhaltung der Klauseln für „rechtmäßige Zwecke“ | Weigerte sich, auf „Rote Linien“ bei Überwachung zu verzichten |
| Überwachungsrichtlinie | Behauptet, es gäbe Schutzmaßnahmen gegen inländische Spionage | Striktes Verbot in den Nutzungsbedingungen |
| Einsatzumgebung | Klassifizierte Pentagon-Netzwerke erlaubt | Verweigerte klassifizierten Einsatz ohne Audit |
| Regierungsbeziehung | Bevorzugter Partner unter Trump-Richtlinie | Als „Lieferkettenrisiko“ (Supply Chain Risk) eingestuft |
| CEO-Statement | „Wir müssen mit Regierungen zusammenarbeiten.“ (Altman) | „Wir werden bei Sicherheitsstandards keine Kompromisse eingehen.“ (Amodei) |
Schwarzer ist keine Anomalie; er ist Teil eines wachsenden Trends. In den letzten 18 Monaten hat sich Anthropic zu einem Zufluchtsort für Forscher entwickelt, die KI-Sicherheit und ethische Strenge über schnelle Kommerzialisierung oder Regierungstreue stellen.
Das „Vertrauen“, auf das sich Schwarzer in seinem Kündigungsschreiben bezog, spielt wahrscheinlich auf ehemalige OpenAI-Größen an, die den Sprung bereits gewagt haben, wie Jan Leike und Ilya Sutskever (über sein eigenes Unternehmen, obwohl er ideologisch dem Safety-First-Lager nahesteht). Anthropic, geleitet vom ehemaligen OpenAI-Vizepräsidenten Dario Amodei, hat sich erfolgreich als das „Gewissen“ der Branche positioniert.
Diese Migration stellt ein strategisches Risiko für OpenAI dar. Während das Unternehmen einen massiven kommerziellen Vorsprung und staatliche Unterstützung behält, könnte der Verlust der zentralen technischen Führung – insbesondere derer, die die Feinheiten von Post-Training und Reinforcement Learning from Human Feedback (RLHF) verstehen – die Iterationszyklen für zukünftige Modelle wie GPT-6 verlangsamen.
Die Dichotomie zwischen OpenAI und Anthropic ist nun deutlicher denn je.
Für Max Schwarzer ist der Wechsel zu Anthropic eine Rückkehr zu seinen Wurzeln. Er äußerte den Wunsch, „zurück in die Details“ (get back into the weeds) der Forschung im Bereich Reinforcement Learning (RL) zu gehen. Bei Anthropic wird er sich wahrscheinlich auf die nächste Generation von Constitutional AI konzentrieren und dabei helfen, Systeme zu bauen, die nicht nur leistungsfähig, sondern auch streng kontrollierbar sind – eine Mission, die anscheinend mehr bei ihm ankommt als der Einsatz von GPT-5 für das Department of War.
Während sich der Staub in dieser chaotischen Woche legt, beobachtet die Branche zwei unterschiedliche Zukünfte für die künstliche Intelligenz: eine, die sich die Macht des Staates zu eigen macht, und eine, die versucht, sie zu bändigen. Der Zustrom von Spitzenkräften wie Schwarzer deutet darauf hin, dass die Wahl für die Forscher, die diese Köpfe bauen, immer klarer wird.