
Dans un moment charnière pour l'industrie de l'intelligence artificielle (IA [Artificial Intelligence]), la tension entre le développement éthique de l'IA et les impératifs de défense nationale a éclaté en un conflit public de grande ampleur. Suite à une directive du Pentagone désignant Anthropic comme un « risque pour la chaîne d'approvisionnement » (supply chain risk) pour la sécurité nationale, le PDG Dario Amodei a publié une réponse défiante mais profondément nationaliste, affirmant : « Nous sommes des Américains patriotiques », tout en refusant de franchir ce que l'entreprise définit comme des lignes rouges éthiques critiques.
Le différend, qui a culminé cette semaine avec une interdiction radicale ordonnée par l'administration Trump et le secrétaire à la Défense Pete Hegseth, se concentre sur le refus d'Anthropic de modifier ses conditions d'utilisation pour permettre un usage militaire sans restriction — concernant spécifiquement la surveillance de masse domestique et les armes létales entièrement autonomes.
Le conflit a atteint son point de rupture vendredi lorsque le département de la Défense (DoD) a adressé un ultimatum à Anthropic : supprimer les garde-fous de sécurité qui restreignent l'utilisation du modèle Claude par les militaires, sous peine de mise sur liste noire. Lorsque le délai de 17h01 est passé sans capitulation d'Anthropic, le secrétaire Hegseth a mis à exécution une désignation rarement appliquée aux entreprises nationales, catégorisant de fait le géant de l'IA aux côtés d'adversaires étrangers en termes de toxicité de la chaîne d'approvisionnement.
« Les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech », a déclaré Hegseth, annonçant qu'aucun contractant traitant avec l'armée américaine ne pourrait poursuivre des activités commerciales avec Anthropic.
Dans une interview de haut niveau et une déclaration ultérieure, Dario Amodei a rejeté le récit selon lequel son entreprise entraverait la sécurité nationale. Au lieu de cela, il a présenté le refus d'Anthropic comme une défense des valeurs américaines fondamentales. « Tout ce que nous avons fait l'a été pour le bien de ce pays, afin de soutenir la sécurité nationale des États-Unis », a déclaré Amodei. « Les lignes rouges que nous avons tracées, nous les avons tracées parce que nous pensons que franchir ces lignes est contraire aux valeurs américaines. »
Le cœur du désaccord réside dans deux cas d'utilisation spécifiques qu'Anthropic a systématiquement interdits dans sa politique de mise à l'échelle responsable (Responsible Scaling Policy, RSP) et ses conditions d'utilisation, même pour les clients gouvernementaux :
Le Pentagone, sous le nouveau nom de « Département de la Guerre » de l'administration actuelle, soutient que ces restrictions équivalent à un « droit de veto » sur les opérations militaires. Les responsables de la défense ont affirmé qu'ils exigent « tous les usages licites » de la technologie pour maintenir la supériorité sur des adversaires comme la Chine, qui ne font face à aucune contrainte éthique de ce type de la part de leur secteur technologique national.
La classification d'Anthropic comme un « risque pour la chaîne d'approvisionnement » est une mesure économique draconienne dont les ramifications s'étendent bien au-delà du Pentagone. Cette désignation ne met pas seulement fin aux contrats directs entre Anthropic et le DoD ; elle crée un effet de contagion dans toute la base industrielle de défense.
Les principaux contractants de défense et partenaires technologiques — incluant potentiellement des fournisseurs de cloud comme AWS et Google Cloud, s'ils gèrent des contrats militaires — subissent désormais une pression légale pour rompre leurs liens avec Anthropic afin de préserver leur propre statut auprès du gouvernement. Avec une valorisation récente d'Anthropic à environ 380 milliards de dollars et la préparation d'une éventuelle introduction en bourse, cette décision représente une menace financière existentielle conçue pour forcer la mise en conformité.
« C'est une mesure de rétorsion et punitive », a déclaré Amodei aux journalistes, signalant que l'entreprise a l'intention de contester la désignation devant les tribunaux. Les experts juridiques suggèrent que l'application d'un cadre de risque de la chaîne d'approvisionnement — généralement réservé au matériel provenant de nations hostiles — à une entreprise de logiciels américaine pour des désaccords politiques est sans précédent et pourrait faire l'objet d'un examen judiciaire approfondi.
L'interdiction a créé un vide immédiat dans le secteur de l'IA de défense, un vide que les concurrents se sont empressés de combler. Quelques heures après l'annonce de la désignation, OpenAI a confirmé un nouveau partenariat avec le Pentagone, acceptant des conditions qui permettent des applications militaires plus larges.
Cette divergence marque une bifurcation significative dans l'industrie de l'IA : ceux qui s'alignent strictement sur les exigences de « guerre sans restriction » de l'administration, et ceux qui tentent de maintenir une gouvernance éthique indépendante.
Tableau : La fracture de la défense en IA
| Contractant | Position sur les armes autonomes | Position sur la surveillance de masse | Statut au Pentagone |
|---|---|---|---|
| Anthropic | Strictement interdites Cite le manque de fiabilité technique et les risques éthiques. |
Strictement interdite Considérée comme une violation des libertés civiles. |
Banni Désigné « Risque pour la chaîne d'approvisionnement » |
| OpenAI | Autorisées Sous un cadre d'« usage licite ». |
Autorisée Alignée sur les exigences du DoD. |
Partenaire actif Nouveau contrat signé en fév. 2026 |
| Palantir | Entièrement intégrées Soutien de longue date à l'autonomie létale. |
Entièrement intégrée Offre de produit centrale. |
Partenaire actif Principal intégrateur de défense |
La défense d'Amodei s'appuie fortement sur la réalité technique des modèles de langage actuels (Large Language Models, LLM). Au-delà de l'argument moral, Anthropic affirme que la technologie n'est tout simplement pas prête à être retirée du contrôle humain (« out of the loop ») dans des scénarios létaux.
« Nous croyons à la défaite de nos adversaires autocratiques », a précisé Amodei. « Mais déployer des systèmes qui hallucinent ou qui peuvent être facilement piratés (« jailbroken ») pour intégrer des chaînes de destruction autonomes ne rend pas l'Amérique plus sûre ; cela introduit un nouveau vecteur de chaos. »
Cet argument selon lequel « la sûreté est la sécurité » postule que le véritable patriotisme consiste à empêcher le déploiement d'une technologie immature qui pourrait entraîner des tirs fratricides, une escalade involontaire ou des crimes de guerre. Cependant, l'administration voit cette prudence comme de l'obstructionnisme, interprétant la « mise à l'échelle responsable » comme un euphémisme pour une hésitation « woke » qui ralentit la modernisation militaire américaine.
Alors que commence la période de transition de six mois pour les contrats gouvernementaux actuels d'Anthropic, l'industrie fait face à un effet de refroidissement. Le message de Washington est clair : dans la nouvelle ère de la guerre par IA, la conformité est obligatoire, et la dissidence éthique coûte cher.
Le défi juridique d'Anthropic fixera probablement un précédent décisif pour le XXIe siècle. Le gouvernement peut-il contraindre une entreprise américaine privée à construire des outils qu'elle juge moralement et techniquement dangereux ? Ou la définition de l'innovation « patriotique » inclut-elle le droit de dire non ?
Pour l'instant, Dario Amodei et Anthropic restent fermes sur leurs lignes rouges, pariant que le système juridique américain — et peut-être le jugement à long terme de l'histoire — valorisera leur retenue fondée sur des principes plutôt que l'utilité militaire immédiate. Mais à court terme, l'entreprise fait face à tout le poids du gouvernement fédéral, déterminé à mettre la Silicon Valley au pas.