
Dans un revirement spectaculaire qui souligne les tensions croissantes entre la Silicon Valley et Washington, le PDG d'Anthropic, Dario Amodei, aurait repris les négociations avec de hauts responsables du Pentagone. Ce développement intervient quelques jours seulement après que le Département de la Défense (DoD) a officiellement désigné la startup spécialisée dans la sécurité de l'IA (AI safety) comme un « risque pour la chaîne d'approvisionnement » (supply chain risk) — une classification sévère généralement réservée aux adversaires étrangers — et a conclu un partenariat rival avec OpenAI.
Selon des sources proches du dossier, Amodei est actuellement engagé dans des discussions de « la dernière chance » avec Emil Michael, le sous-secrétaire à la défense pour la recherche et l'ingénierie. L'objectif est de trouver un compromis qui permettrait à Anthropic de conserver ses contrats de défense sans capituler totalement sur les garde-fous éthiques qui ont provoqué la rupture initiale.
Le contexte de ces nouvelles discussions est une mesure sans précédent prise par le DoD. Suite à l'échec des négociations initiales vendredi dernier, le secrétaire à la défense Pete Hegseth a pris des mesures pour étiqueter Anthropic comme un « risque pour la chaîne d'approvisionnement ». Cette désignation agit de fait comme une liste noire, interdisant non seulement les contrats directs avec le Pentagone, mais bannissant également tout contractant ou fournisseur de la défense de mener des activités commerciales avec Anthropic.
Pour une entreprise technologique basée aux États-Unis, ce label est catastrophique. Il menace de couper Anthropic d'un vaste écosystème de partenaires gouvernementaux et pourrait refroidir l'investissement privé en signalant que l'entreprise est en désaccord avec les intérêts de la sécurité nationale.
Le conflit se concentre sur des termes contractuels spécifiques concernant l'utilisation de l'IA. Anthropic a fermement refusé de supprimer les clauses qui interdiraient à l'armée d'utiliser ses modèles Claude pour la « surveillance domestique de masse » et les « armes létales autonomes ». Le Pentagone, à l'inverse, a exigé la suppression de ces restrictions, insistant sur le droit d'utiliser la technologie à « toutes fins licites ».
La rupture des discussions précédentes aurait dépendu d'une seule phrase spécifique. Des mémos internes indiquent que le DoD a proposé d'accepter les conditions plus larges d'Anthropic uniquement si l'entreprise supprimait une clause restreignant « l'analyse des données acquises en vrac » (bulk acquired data).
Amodei a considéré cette demande avec une profonde suspicion, l'interprétant comme une faille qui permettrait les scénarios de surveillance de masse que l'entreprise cherche précisément à prévenir. « Nous avons trouvé cela très suspect », a écrit Amodei dans une note au personnel, qualifiant la demande du gouvernement de ligne rouge que l'entreprise ne pouvait franchir en toute bonne conscience.
La tension a été exacerbée par une animosité personnelle. Emil Michael, le responsable qui fait maintenant face à Amodei à la table des négociations, a publiquement critiqué le PDG sur les réseaux sociaux la semaine dernière, l'accusant d'avoir un « complexe de Dieu » pour avoir refusé de fournir sa technologie aux efforts de défense nationale. La reprise des discussions suggère que les instincts pragmatiques de survie commerciale forcent une désescalade de cette rhétorique.
Alors qu'Anthropic restait campée sur ses principes éthiques, son principal concurrent, OpenAI, a agi rapidement pour capitaliser sur ce vide. Quelques heures après la rupture entre Anthropic et le Pentagone, le PDG d'OpenAI, Sam Altman, a annoncé un nouveau partenariat avec le DoD.
L'accord d'OpenAI s'alignerait sur l'exigence du Pentagone de pouvoir utiliser la technologie à « toutes fins licites ». Bien qu'OpenAI maintienne que ses normes de sécurité restent robustes, Amodei s'est montré très critique envers cette décision, qualifiant les affirmations de sécurité de son rival dans ce contexte de « théâtre de la sécurité » (safety theater) et de « mensongères ».
La divergence de stratégie a créé une bifurcation claire dans le paysage de la défense par l'IA :
Comparaison des géants de l'IA dans le secteur de la défense (Mars 2026)
| Entreprise | Position clé sur les contrats de défense | Statut actuel auprès du Pentagone |
|---|---|---|
| Anthropic | Refuse la suppression des clauses anti-surveillance ; bloque spécifiquement « l'analyse des données en vrac ». | Désignée comme « Risque pour la chaîne d'approvisionnement » ; tente de renégocier. |
| OpenAI | Accepte la norme « toutes fins licites » ; s'appuie sur une « pile de sécurité » interne. | Contrat actif signé ; remplace Anthropic dans les flux de travail clés. |
| Google DeepMind | Engagement prudent ; se concentre sur la cybersécurité et la logistique plutôt que sur les opérations cinétiques. | Maintient les contrats existants ; observe les retombées actuelles. |
La reprise des négociations entre Amodei et Michael signale qu'aucune des deux parties ne pourrait bénéficier d'une rupture permanente. Pour le Pentagone, perdre l'accès aux modèles Claude d'Anthropic — largement reconnus pour leurs capacités d'interprétabilité et de raisonnement — réduit la diversité de son arsenal d'IA. Pour Anthropic, le label de « risque pour la chaîne d'approvisionnement » est une menace financière existentielle qui pourrait faire dérailler sa valorisation de 60 milliards de dollars et aliéner ses partenaires commerciaux craignant de se mettre à dos le DoD.
Les analystes du secteur suggèrent qu'un compromis pourrait impliquer des « exclusions », où les modèles d'Anthropic seraient approuvés pour des tâches de logistique et de renseignement non liées au combat, tout en étant protégés des systèmes de surveillance ou d'armement autonome. Cependant, la confiance reste faible.
L'issue de ces discussions créera probablement un précédent sur la manière dont le gouvernement américain contraint ou collabore avec les laboratoires d'IA privés. Si Anthropic est contrainte de capituler pour faire lever sa mise sur liste noire, cela enverra un message glaçant à l'industrie : les lignes rouges éthiques peuvent être intenables lorsqu'elles entrent en conflit avec les exigences de l'État. À l'inverse, si Amodei obtient une concession, cela pourrait valider l'approche de « l'IA constitutionnelle » (Constitutional AI) comme un modèle commercial viable, même dans le secteur de la défense.
Depuis vendredi matin, la désignation reste active, et le secteur technologique attend de voir si le label de « risque » peut être annulé avant que les dommages ne deviennent permanents.