
Dans une escalade virulente de la guerre idéologique entre les principaux laboratoires d'IA (AI labs) de la Silicon Valley, le PDG d'Anthropic, Dario Amodei, a accusé son rival OpenAI de se livrer à un « théâtre de la sécurité » (safety theater) et de colporter de « purs mensonges » concernant son récent partenariat avec le Département de la Défense des États-Unis. Ces accusations, révélées dans une note interne rapportée par The Information, marquent une fracture définitive dans le front uni de l'industrie sur la sécurité de l'IA (AI safety), brisant le vernis de politesse qui a longtemps caractérisé les relations entre les deux puissances.
La note, diffusée au personnel d'Anthropic cette semaine, intervient quelques jours après qu'OpenAI a annoncé un accord controversé pour déployer ses modèles au sein des réseaux classifiés du Pentagone — un accord conclu quelques heures seulement après qu'Anthropic se serait retiré de négociations similaires en raison de « lignes rouges » éthiques.
La communication interne d'Amodei se dispense des politesses diplomatiques d'entreprise. Selon le rapport, il a spécifiquement ciblé la présentation publique de l'accord du Pentagone par le PDG d'OpenAI, Sam Altman. Altman avait qualifié l'accord de victoire pour un déploiement responsable de l'IA, affirmant qu'OpenAI avait négocié avec succès des garanties strictes contre les armes autonomes et la surveillance domestique — des conditions qu'Anthropic n'aurait pas réussi à obtenir.
« Nous avons en fait maintenu nos lignes rouges avec intégrité plutôt que de s'entendre avec eux pour produire un "théâtre de la sécurité" au profit des employés », aurait écrit Amodei. Il est allé plus loin, qualifiant le récit d'Altman de « purs mensonges » et de « tentative fallacieuse de se présenter comme un pacificateur » dans un environnement réglementaire chaotique.
Le cœur du grief d'Amodei semble être la substance des « garanties » qu'OpenAI prétend avoir mises en place. Alors qu'Anthropic a refusé les conditions du Pentagone parce qu'elles n'interdisaient pas contractuellement l'utilisation de leur IA pour la surveillance de masse domestique ou le ciblage létal entièrement autonome, les critiques soutiennent que l'accord d'OpenAI exige simplement le respect des « lois existantes » — une norme qui, selon les défenseurs de la vie privée, est bien plus poreuse qu'une interdiction contractuelle.
Le calendrier de ces événements a alimenté l'intensité du conflit. Fin février 2026, les négociations entre Anthropic et le Département de la Guerre (Department of War, anciennement le Département de la Défense) ont échoué. Anthropic est resté ferme sur deux conditions non négociables :
Le Pentagone a refusé ces conditions. Dans une mesure de rétorsion draconienne, l'agence a qualifié Anthropic de « risque pour la chaîne d'approvisionnement » (supply-chain risk), interdisant de fait sa technologie pour tout usage fédéral.
Moins de 24 heures plus tard, un vendredi soir, Sam Altman a annoncé le partenariat d'OpenAI avec cette même agence. Altman a admis dans un message ultérieur que l'accord était « précipité » et « bâclé », mais a maintenu qu'OpenAI avait obtenu les garde-fous éthiques nécessaires. La note d'Amodei suggère qu'OpenAI a simplement capitulé devant les exigences du gouvernement pour décrocher le contrat lucratif, recadrant cette capitulation comme un « compromis stratégique ».
Le tableau suivant présente les divergences critiques dans la manière dont les deux entreprises ont abordé la collaboration militaire en mars 2026.
| Position sur la collaboration militaire | Anthropic | OpenAI |
|---|---|---|
| Principales « lignes rouges » éthiques | Interdiction contractuelle de la surveillance de masse et du ciblage par armes autonomes. | Recours aux « lois existantes » et aux politiques de « responsabilité humaine ». |
| Résultat des discussions avec le Pentagone | Accord rejeté ; qualifié de « risque pour la chaîne d'approvisionnement » par le DoD. | Accord signé pour un déploiement sur réseau classifié. |
| Présentation publique du PDG | A mis en garde contre le « pouvoir gouvernemental incontrôlé » et a refusé d'« acquiescer en toute bonne conscience ». | A revendiqué un succès dans la négociation de garanties ; a admis plus tard que le processus était « bâclé ». |
| Réaction des employés | Solidarité interne ; lettres ouvertes soutenant le refus du PDG. | Agitation importante ; départ de chercheurs de haut niveau citant des problèmes de « confiance ». |
| Statut sur les réseaux gouvernementaux | Interdit/Restreint. | Approuvé pour un déploiement classifié. |
Ajoutant l'insulte à l'injure, la fracture idéologique commence à se manifester par une fuite des talents. Coup dur pour la direction de la recherche d'OpenAI, le vice-président de la recherche, Max Schwarzer, a démissionné pour rejoindre Anthropic. Schwarzer, figure clé des équipes de post-entraînement et de raisonnement d'OpenAI, a annoncé son départ sur X (anciennement Twitter), déclarant que « beaucoup de personnes en qui j'ai le plus confiance et que je respecte le plus ont rejoint Anthropic au cours des deux dernières années ».
Le départ de Schwarzer n'est pas un incident isolé mais s'inscrit dans un modèle croissant où les chercheurs soucieux de la sécurité migrent vers Anthropic, la considérant comme le dernier bastion d'un développement éthique de l'IA. Cette « fuite des cerveaux » renforce le discours interne d'Amodei selon lequel OpenAI perd sa boussole morale dans sa quête de domination commerciale et gouvernementale.
Le différend entre Amodei et Altman est plus qu'une querelle personnelle ; il représente un schisme dans la philosophie de la gouvernance de l'IA (AI governance). L'approche « pragmatique » d'OpenAI soutient que l'engagement avec l'armée est inévitable et qu'il vaut mieux qu'une entreprise américaine façonne le déploiement de l'intérieur. La position « de principe » d'Anthropic postule que les entreprises technologiques doivent agir comme un contre-pouvoir à l'État, même au prix de contrats gouvernementaux massifs.
En accusant OpenAI de mentir, Amodei signale que l'ère de la « coopétition » coopérative est révolue. Alors que le Pentagone intègre l'IA générative (Generative AI) dans ses chaînes de destruction et son appareil de surveillance, l'industrie oblige ses esprits les plus brillants à choisir un camp : le collaborateur pragmatique ou l'objecteur de conscience défiant. Pour l'instant, le Département de la Guerre a choisi OpenAI, mais les chercheurs qui construisent l'avenir semblent voter avec leurs pieds.