
Dans une décision qui fracture fondamentalement la relation entre les laboratoires d'intelligence artificielle (Artificial Intelligence - AI) axés sur la sécurité de la Silicon Valley et l'armée américaine, le secrétaire à la Défense Pete Hegseth a formellement désigné Anthropic comme un « risque pour la sécurité nationale au sein de la chaîne d'approvisionnement » (Supply Chain Risk to National Security). Cette désignation, annoncée tard vendredi, rompt de fait les liens de l'entreprise d'IA avec le gouvernement fédéral et interdit à des dizaines de milliers de sous-traitants de la défense d'utiliser sa technologie.
Cette action sans précédent fait suite à une confrontation spectaculaire entre la direction d'Anthropic et le Pentagone — désigné par l'administration actuelle comme le ministère de la Guerre — concernant les limites éthiques de l'intelligence artificielle au combat. Suite à cette désignation, le président Donald Trump a émis une directive ordonnant à toutes les agences fédérales de « cesser immédiatement » l'utilisation des produits d'Anthropic, y compris son modèle phare Claude, avec une période de retrait progressif stricte de six mois.
« Cette semaine, Anthropic a donné une leçon d'arrogance et de trahison », a déclaré Hegseth sur X (anciennement Twitter), annonçant l'interdiction quelques heures seulement après l'expiration d'un ultimatum fixé à 17h01. « Aucun entrepreneur, fournisseur ou partenaire traitant avec l'armée des États-Unis ne peut mener d'activité commerciale avec Anthropic. »
Cette désignation crée un choix binaire pour la base industrielle de la défense américaine : abandonner Claude, ou perdre vos contrats gouvernementaux. Il s'agit d'une classification historiquement réservée à des adversaires étrangers comme Huawei ou Kaspersky Lab, marquant la première fois qu'un laboratoire d'IA américain de premier plan est visé par un mécanisme aussi sévère.
Le conflit se concentre sur un désaccord fondamental concernant la « Politique d'utilisation acceptable » (Acceptable Use Policy - AUP) qui régit la manière dont les modèles d'IA peuvent être déployés. Depuis des mois, les négociations entre Anthropic et les responsables de la défense sont au point mort sur deux « lignes rouges » non négociables fixées par l'entreprise :
Les responsables de la défense ont fait valoir que ces restrictions étaient incompatibles avec les besoins de la sécurité nationale, exigeant qu'Anthropic accorde à l'armée un « accès illimité » pour « toutes fins licites ».
Le PDG d'Anthropic, Dario Amodei, a refusé de capituler. Dans une déclaration publiée peu après la désignation, Amodei a soutenu que les modèles de pointe (Frontier Models) actuels ne sont pas assez fiables pour qu'on leur confie une autonomie létale. « Nous ne pouvons pas, en toute conscience, accéder à leur demande », a déclaré Amodei. « Permettre que les modèles actuels soient utilisés de cette manière mettrait en danger les combattants et les civils américains. »
Des sources internes suggèrent que les frictions ont atteint un point d'ébullition en janvier 2026, suite à des rapports indiquant que Claude avait été utilisé en conjonction avec le logiciel Palantir lors d'une opération militaire américaine au Venezuela. L'opération, qui a abouti à la capture de Nicolás Maduro, aurait déclenché une alarme interne chez Anthropic concernant la manière dont sa technologie était interprétée par les opérateurs militaires, renforçant la détermination de l'entreprise à imposer des garde-fous plus stricts.
Les implications de la mise sur liste noire d'Anthropic ont été immédiates et illustrées de manière frappante par son principal concurrent. Quelques heures seulement après l'annonce du Pentagone, OpenAI a confirmé avoir conclu un nouvel accord avec le département de la Défense pour déployer ses modèles au sein de réseaux classifiés.
Bien que le PDG d'OpenAI, Sam Altman, ait déclaré que leur accord inclut des « sauvegardes techniques » et des principes concernant la responsabilité humaine, le moment choisi suggère une divergence claire dans l'industrie. Le marché se divise désormais en deux camps distincts : ceux prêts à s'aligner pleinement sur la « doctrine Hegseth » d'application militaire sans restriction, et ceux tentant de maintenir des contrôles éthiques indépendants.
Le tableau ci-dessous présente la divergence de politique qui a mené à ce schisme historique :
Comparaison des positions politiques
| Caractéristique | Position d'Anthropic | Demande du DoD / Hegseth |
|---|---|---|
| Armes autonomes | Strictement interdites (citant la fiabilité) | Autorisées (« toutes fins licites ») |
| Surveillance domestique | Strictly interdite (libertés civiles) | Autorisée (priorité à la sécurité nationale) |
| Statut du contrat | Désigné comme risque pour la chaîne d'approvisionnement | Recherche d'un « accès illimité » |
| Contrôle opérationnel | Garde-fous définis par le fournisseur | Paramètres définis par le gouvernement |
La rhétorique du secrétaire Hegseth a présenté le différend non pas simplement comme un désaccord contractuel, mais comme une bataille idéologique. En qualifiant Anthropic d'« entreprise woke de gauche radicale », l'administration signale que le refus de se conformer aux demandes militaires sera traité comme un manque de patriotisme.
Cela place les grands sous-traitants de la défense dans une position précaire. Des entreprises comme Lockheed Martin, Boeing et Northrop Grumman — dont beaucoup utilisent divers modèles d'IA pour le codage, la logistique et l'analyse — doivent maintenant auditer leurs chaînes d'approvisionnement pour s'assurer que Claude est totalement exclu. L'ordre interdit toute « activité commerciale », un terme large qui pourrait théoriquement pénaliser un sous-traitant de la défense si son département RH utilise Claude pour rédiger des courriels ou si ses équipes d'ingénierie l'utilisent pour la génération de code non classifié.
Les experts juridiques avertissent que la désignation de « risque pour la chaîne d'approvisionnement », typiquement utilisée en vertu d'autorités comme le Federal Acquisition Supply Chain Security Act (FASCSA), est conçue pour protéger contre l'espionnage et le sabotage, et non pour punir les entreprises nationales pour des désaccords politiques.
Anthropic a juré de contester la désignation devant les tribunaux, la qualifiant de « juridiquement infondée ». L'entreprise soutient que le Pentagone n'a pas l'autorité statutaire pour bannir une entreprise américaine privée de l'ensemble de la chaîne d'approvisionnement fédérale simplement pour avoir refusé de modifier ses conditions de service.
« Nous pensons que cette désignation... établit un précédent dangereux pour toute entreprise américaine qui négocie avec le gouvernement », a déclaré Anthropic. L'entreprise soutient que le gouvernement tente d'utiliser son pouvoir de monopsone pour contraindre à un discours et à une utilisation de code qui violent les principes constitutionnels fondateurs de la firme.
Cependant, les tribunaux ont historiquement accordé au pouvoir exécutif une large marge de manœuvre en matière de sécurité nationale. Jusqu'à ce qu'un juge intervienne, l'interdiction reste en vigueur, excluant de fait l'un des systèmes d'IA les plus avancés au monde du secteur public et forçant l'ensemble de l'industrie technologique à choisir son camp dans une guerre qui s'intensifie rapidement pour l'âme de l'IA militaire.