
Dans un remaniement important de la direction technique d'OpenAI, Max Schwarzer, vice-président de la recherche (VP of Research) et responsable du post-entraînement (Post-Training), a démissionné pour rejoindre le laboratoire concurrent Anthropic. L'annonce, faite via X (anciennement Twitter) le 3 mars 2026, intervient quelques heures seulement après qu'OpenAI a officialisé un partenariat controversé avec le Département de la Guerre des États-Unis (anciennement Département de la Défense), un accord qui a suscité un débat intense concernant la militarisation de l'intelligence artificielle.
Le départ de Schwarzer marque la dernière sortie de haut niveau dans ce que les analystes du secteur appellent une « migration axée sur les valeurs » de OpenAI vers Anthropic. Bien que Schwarzer ait cité publiquement le désir de redevenir un contributeur individuel (Individual Contributor - IC) en recherche sur l'apprentissage par renforcement (Reinforcement Learning), le moment de sa démission — coïncidant avec le tollé public contre le nouvel alignement militaire d'OpenAI — a attiré un examen minutieux de la part de la communauté de l'IA.
Max Schwarzer laisse derrière lui un héritage monumental chez OpenAI. En tant que responsable du post-entraînement, il était directement responsable de l'affinage et de l'alignement de sécurité des modèles les plus avancés de l'entreprise. Son mandat a supervisé la livraison de toute la lignée GPT-5 (incluant GPT-5.1, 5.2 et la version spécialisée pour le code 5.3-Codex) ainsi que la série o (o1 et o3) axée sur le raisonnement.
« Je suis incroyablement fier de tout le travail auquel j'ai participé ici », a écrit Schwarzer dans sa déclaration d'adieu. Il a souligné ses contributions à la création du paradigme de raisonnement aux côtés de ses collègues et à la mise à l'échelle du calcul au moment du test (test-time compute). Cependant, sa déclaration a notamment mis l'accent sur l'attrait de la culture d'Anthropic : « Beaucoup de personnes en qui j'ai le plus confiance et que je respecte le plus ont rejoint Anthropic au cours des deux dernières années. »
Le mouvement de Schwarzer n'est pas simplement un changement administratif ; il représente un transfert de connaissances institutionnelles critiques. Le post-entraînement est l'étape où les modèles d'IA bruts sont perfectionnés pour le comportement, la sécurité et l'utilité — donnant ainsi au modèle sa « personnalité » et ses contraintes éthiques. En passant chez Anthropic, Schwarzer emporte une expertise approfondie des méthodes propriétaires utilisées pour aligner GPT-5 et o3, renforçant l'équipe de recherche déjà redoutable d'Anthropic.
Le contexte de la démission de Schwarzer ne peut être dissocié de la tempête géopolitique qui enveloppe actuellement la Silicon Valley. Plus tôt cette semaine, le Pentagone — désigné dans les récentes mises à jour de documents officiels sous le nom de Département de la Guerre — a annoncé un changement décisif dans sa stratégie d'approvisionnement en IA.
Suite à une directive de l'administration Trump, les agences fédérales ont reçu l'ordre de cesser les contrats avec Anthropic après que l'entreprise a refusé de renoncer à ses « lignes rouges » concernant la surveillance de masse et l'armement autonome. Le refus d'Anthropic de modifier ses conditions de service pour s'adapter aux demandes d'accès direct du Département a conduit à un abandon rapide de leurs services.
OpenAI, inversement, a comblé le vide. Le PDG Sam Altman a confirmé un nouvel accord permettant le déploiement des modèles d'OpenAI sur des réseaux classifiés. Bien qu'Altman ait admis plus tard que la gestion initiale de l'annonce était « opportuniste et bâclée », et ait précisé que l'accord inclut des garde-fous contre la surveillance domestique, l'image de marque a été endommagée.
Le tableau suivant présente les trajectoires divergentes prises par les deux géants de l'IA concernant la collaboration militaire, un schisme qui semble orienter les décisions des talents.
Tableau : L'affrontement militaire OpenAI vs Anthropic (Mars 2026)
| Caractéristique | Position d'OpenAI | Position d'Anthropic |
|---|---|---|
| Statut du contrat | Accord de déploiement classifié signé (Mars 2026) | Négociations de contrat rompues/Terminées |
| Objection principale | Aucune ; conformité aux clauses de « but légal » | Refus de renoncer aux « Lignes Rouges » sur la surveillance |
| Politique de surveillance | Prétend que des garde-fous existent contre l'espionnage domestique | Interdiction stricte dans les conditions de service |
| Environnement de déploiement | Réseaux classifiés du Pentagone autorisés | Déploiement classifié refusé sans audit |
| Relation gouvernementale | Partenaire privilégié sous la directive Trump | Désigné comme « Risque pour la chaîne d'approvisionnement » |
| Déclaration du PDG | « Nous devons travailler avec les gouvernements. » (Altman) | « Nous ne ferons aucun compromis sur les normes de sécurité. » (Amodei) |
Schwarzer n'est pas une anomalie ; il fait partie d'une tendance croissante. Au cours des 18 derniers mois, Anthropic est devenu un refuge pour les chercheurs qui privilégient la sécurité de l'IA et la rigidité éthique plutôt qu'une commercialisation rapide ou un alignement gouvernemental.
La « confiance » à laquelle Schwarzer a fait référence dans sa lettre de démission fait probablement allusion aux anciens poids lourds d'OpenAI qui ont déjà fait le saut, tels que Jan Leike et Ilya Sutskever (via sa propre entreprise, bien qu'idéologiquement aligné avec le camp de la sécurité d'abord). Anthropic, dirigé par l'ancien VP d'OpenAI Dario Amodei, a réussi à se positionner comme la « conscience » de l'industrie.
Cette migration pose un risque stratégique pour OpenAI. Alors que l'entreprise conserve une avance commerciale massive et le soutien du gouvernement, la perte de leaders techniques essentiels — spécifiquement ceux qui comprennent les subtilités du post-entraînement et de l'apprentissage par renforcement à partir de commentaires humains (RLHF) — pourrait ralentir les cycles d'itération pour les futurs modèles comme GPT-6.
La dichotomie entre OpenAI et Anthropic est désormais plus frappante que jamais.
Pour Max Schwarzer, le passage chez Anthropic est un retour à ses racines. Il a exprimé le désir de « replonger dans le vif » de la recherche en apprentissage par renforcement (RL). Chez Anthropic, il se concentrera probablement sur la prochaine génération d'IA constitutionnelle (Constitutional AI), aidant à construire des systèmes qui ne sont pas seulement puissants, mais rigoureusement contrôlables — une mission qui semble résonner davantage avec lui que le déploiement de GPT-5 au Département de la Guerre.
Alors que la poussière retombe sur cette semaine chaotique, l'industrie observe deux futurs distincts pour l'intelligence artificielle : l'un qui embrasse le pouvoir de l'État, et l'autre qui tente de le restreindre. Le flux de talents de premier plan comme Schwarzer suggère que, pour les chercheurs qui construisent ces esprits, le choix devient de plus en plus clair.