
Dans un moment décisif pour l'avenir de l'intelligence artificielle (IA) dans la défense nationale, le département de la Défense (Department of Defense) a lancé un ultimatum cinglant à la start-up de sécurité de l'IA Anthropic. Le secrétaire à la Défense, Pete Hegseth, a donné à l'entreprise jusqu'à ce vendredi 27 février 2026 pour accorder à l'armée américaine un accès illimité à son modèle phare Claude ou s'exposer à une intervention fédérale sévère.
La confrontation, qui s'est intensifiée à la suite d'une réunion tendue à huis clos mardi entre le secrétaire Hegseth et le PDG d'Anthropic Dario Amodei, porte sur un désaccord fondamental concernant les « garde-fous » (guardrails) éthiques intégrés dans les systèmes d'IA. Le Pentagone menace d'invoquer la loi sur la production de défense (Defense Production Act - DPA) ou de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement (supply chain risk) » — une désignation qui pourrait de fait inscrire l'entreprise sur une liste noire du marché fédéral — à moins qu'elle ne lève les restrictions empêchant son logiciel d'être utilisé pour les armes autonomes et la surveillance intérieure.
Ici, chez Creati.ai, nous surveillons de près cette impasse, car elle représente le conflit le plus important à ce jour entre les laboratoires d'IA de la Silicon Valley axés sur la sécurité et les impératifs opérationnels de l'appareil de sécurité nationale des États-Unis.
Au cœur du conflit se trouve le refus d'Anthropic de modifier ses conditions de service pour les applications militaires. Bien qu'Anthropic ait obtenu un contrat de 200 millions de dollars avec le département de la Défense et que son modèle Claude soit actuellement le seul grand modèle de langage (Large Language Model - LLM) approuvé pour une utilisation sur les réseaux classifiés du Pentagone, l'entreprise a tracé des « lignes rouges » fermes concernant la manière dont sa technologie peut être déployée.
Plus précisément, Anthropic restreint l'utilisation de Claude pour :
Le secrétaire Hegseth et les responsables du Pentagone soutiennent que ces restrictions privées d'entreprise sont des obstacles inutiles à la sécurité nationale. La position du département de la Défense est que ses opérations sont déjà régies par la Constitution des États-Unis et le droit fédéral, rendant les couches éthiques supplémentaires d'Anthropic redondantes et obstructionnistes.
Selon des sources proches de la réunion de mardi, Hegseth a explicitement dit à Amodei que l'armée exige l'accès à Claude pour « toutes les fins licites », sans « contraintes idéologiques ». Cela s'aligne sur l'initiative plus large de Hegseth visant à garantir que les systèmes d'IA militaires soient létaux et sans entraves, une position qu'il a résumée plus tôt cette année par la déclaration selon laquelle « l'IA du Pentagone ne sera pas woke ».
La menace adressée à Anthropic est sans précédent dans le secteur commercial de l'IA. Si l'échéance de vendredi passe sans concession, le Pentagone a tracé deux voies d'action potentielles, qui auraient toutes deux des conséquences dévastatrices pour le modèle économique d'Anthropic.
La loi sur la production de défense (Defense Production Act) de 1950 accorde au président un large pouvoir pour contraindre les industries nationales à donner la priorité aux contrats gouvernementaux et à allouer des ressources pour la défense nationale. Historiquement utilisée en temps de guerre ou lors d'urgences comme la pandémie de COVID-19, invoquer la DPA pour forcer une entreprise de logiciels à modifier le code de sécurité de son produit serait une application juridique inédite. Essentiellement, le gouvernement pourrait légalement exiger qu'Anthropic fournisse une version non censurée de Claude, outrepassant la constitution de sécurité de l'entreprise.
Peut-être encore plus dommageable est la menace de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement ». Cette désignation est généralement réservée aux adversaires étrangers ou aux entités compromises (similaire aux mesures prises contre Huawei ou Kaspersky).
Si elle était appliquée à Anthropic, cette étiquette :
L'urgence de la demande du Pentagone semble liée à des frictions opérationnelles récentes. Des rapports indiquent que l'armée américaine a utilisé Claude lors d'un raid d'opérations spéciales en janvier 2026 qui a abouti à la capture du président vénézuélien Nicolás Maduro. Bien que l'opération ait été un succès, des différends ultérieurs ont surgi sur la question de savoir si l'utilisation de l'IA violait les politiques d'utilisation d'Anthropic, conduisant à ce que les responsables ont décrit comme un « déficit de confiance ».
De plus, le paysage de l'IA militaire évolue rapidement. Pendant qu'Anthropic temporise, ses concurrents s'empressent de combler le vide. xAI d'Elon Musk aurait accepté les conditions d'« usage licite quel qu'il soit » du Pentagone, et ses modèles ont récemment été autorisés pour des travaux classifiés. De même, OpenAI et Google se disputent activement une plus grande part du budget de la défense.
Pour Anthropic, le dilemme est existentiel. Le PDG Dario Amodei a bâti la réputation de l'entreprise sur un développement axé sur la sécurité. Capituler devant la demande d'armement autonome aliénerait son personnel de recherche principal et contredirait sa mission fondatrice. Cependant, perdre le gouvernement américain comme client — et faire face à la DPA — pourrait paralyser sa situation financière et son accès au marché.
Pour clarifier les enjeux de l'échéance de ce vendredi, nous avons détaillé ci-dessous les positions opposées.
Tableau : Demandes du Pentagone vs Politique d'Anthropic
---|---|----
Exigence centrale|Position du Pentagone|Position d'Anthropic
Limites d'utilisation|Exige « tous les cas d'utilisation licites », y compris les applications de combat.|Interdit le ciblage autonome et la surveillance de masse.
Surveillance|S'appuie sur la loi américaine, la Constitution et la chaîne de commandement.|S'appuie sur les protocoles de sécurité internes d'« IA Constitutionnelle ».
Contrôle humain|Ouvert aux systèmes autonomes s'ils sont légalement autorisés.|Exige un « humain dans la boucle » pour toutes les décisions létales.
Conséquence de l'échec|Invocation de la loi sur la production de défense ; Liste noire de la chaîne d'approvisionnement.|Perte potentielle d'un contrat de 200 millions de dollars ; atteinte à la réputation.
Statut|Recherche la « suprématie opérationnelle » sans contraintes des fournisseurs.|Défend un « déploiement responsable » et des frontières éthiques.
L'issue de cette impasse établira un précédent permanent pour la relation entre le gouvernement américain et le secteur privé de l'IA. Si le Pentagone parvient à utiliser la DPA pour supprimer les garde-fous de sécurité, il nationalise de fait les normes éthiques des modèles d'IA utilisés pour la défense. Les entreprises privées ne conserveraient plus le droit de refuser un service pour des applications militaires spécifiques basées sur des objections morales.
À l'inverse, si Anthropic tient bon et survit aux retombées, cela prouvera que les capacités d'IA de haut niveau restent un marché de vendeurs, où le fournisseur dicte les conditions d'engagement.
L'échéance de vendredi constitue un tournant critique. L'industrie technologique attend de voir si la dynamique de l'ère de transition Biden-Trump — où la sécurité nationale l'emporte agressivement sur la politique des entreprises — forcera la main de l'acteur le plus idéaliste de la Silicon Valley. En l'état actuel des choses, Anthropic est le seul laboratoire majeur à résister à l'intégration totale de son intelligence dans la machine de guerre. D'ici le week-end, cette distinction pourrait ne plus exister.
Creati.ai continuera de mettre à jour cet article à mesure que l'échéance approche.