
Dans une escalade historique des tensions entre la Silicon Valley et Washington, le géant de l'IA Anthropic a officiellement déposé une plainte contre le gouvernement des États-Unis. Cette action en justice intervient quelques jours seulement après que le Pentagone — désigné par l'administration actuelle comme le Département de la Guerre (Department of War) — a officiellement qualifié l'entreprise basée à San Francisco de « risque pour la chaîne d'approvisionnement ». Cette désignation, historiquement réservée aux entités étrangères liées à des nations adverses, marque la première fois qu'une entreprise technologique américaine est visée par une telle classification, ouvrant la voie à une bataille juridique déterminante sur l'avenir de l'intelligence artificielle dans la sécurité nationale.
La poursuite, annoncée par le PDG d'Anthropic, Dario Amodei, réclame une injonction immédiate pour annuler cette désignation. Amodei qualifie la décision du gouvernement de « juridiquement infondée » et de mesure punitive conçue pour contraindre l'entreprise à abandonner ses garde-fous éthiques de sécurité. Au cœur du conflit se trouve un désaccord fondamental sur l'application militaire de l'IA : alors que le Pentagone exige « tout usage licite » de la technologie, Anthropic a fermement refusé de permettre que ses modèles Claude soient déployés pour la surveillance de masse domestique ou pour des systèmes d'armes létaux totalement autonomes.
Le concept de désignation de « risque pour la chaîne d'approvisionnement (Supply Chain Risk) » a été initialement établi pour protéger les infrastructures américaines contre l'espionnage et le sabotage étrangers. Les cibles précédentes incluaient des géants chinois des télécommunications comme Huawei et ZTE, ainsi que le cabinet russe de cybersécurité Kaspersky Lab. Appliquer ce label à Anthropic — une entreprise fondée par d'anciens cadres d'OpenAI avec un mandat de sécurité de l'IA — représente un changement radical dans la politique de défense des États-Unis.
Selon les termes de la désignation, émise le 4 mars 2026, le Département de la Défense (Department of Defense) interdit de fait à ses contractants et partenaires d'utiliser la technologie d'Anthropic pour des travaux liés à la défense. Le secrétaire à la Défense, Pete Hegseth, a présenté la décision comme une étape nécessaire pour garantir que l'armée américaine ne soit pas entravée par l'« altruisme défectueux » de corporations privées.
Dans sa plainte, Amodei soutient que le gouvernement n'a pas réussi à démontrer la moindre vulnérabilité de sécurité réelle dans les systèmes d'Anthropic. Au lieu de cela, l'entreprise soutient que le « risque » cité par le Pentagone est idéologique plutôt que technique — un refus de se plier à des exigences qui supprimeraient la supervision humaine des boucles de décision létales.
Implications clés de la désignation :
La rupture entre Anthropic et le Pentagone ne s'est pas produite du jour au lendemain. C'est le point culminant de mois de négociations infructueuses concernant le renouvellement et l'expansion des contrats de défense. Les points de friction sont spécifiques et idéologiques. Anthropic a intégré les principes d'« IA constitutionnelle (Constitutional AI) » dans ses modèles, qui codent en dur le refus de requêtes impliquant des violations des droits de l'homme, la torture ou l'automatisation de la force létale sans autorisation humaine.
Le Pentagone, poursuivant une stratégie de « dominance de l'IA », a soutenu que ces refus codés en dur posent un risque opérationnel. Dans des simulations de combat à enjeux élevés ou des analyses de renseignement rapides, le Département de la Défense soutient qu'une IA qui remet en question les ordres sur la base de l'éthique d'une entreprise est un handicap.
Le tableau ci-dessous présente les positions divergentes qui ont mené à cette impasse :
Comparaison des positions : Anthropic contre le Pentagone
---|---|----
Philosophie centrale|Sécurité de l'IA (AI Safety) et contraintes d'« IA constitutionnelle »|« Tout usage licite » sans restriction pour la dominance
Lignes rouges|Pas de surveillance de masse ; pas d'armes autonomes|Pas de restrictions d'entreprise sur l'application militaire
Vision de la sécurité|Les fonctions de sécurité préviennent les abus et les accidents|Les mécanismes de refus créent des vulnérabilités opérationnelles
Statut du contrat|Refus de signer sans exemptions éthiques|Vendeur désigné comme « risque pour la chaîne d'approvisionnement »
Résultat|Dépôt d'une poursuite judiciaire invoquant un excès de pouvoir administratif|Décision de remplacer le vendeur par des concurrents
La désignation a envoyé des ondes de choc à travers le secteur technologique américain. Les experts juridiques et les analystes du secteur préviennent que l'utilisation des autorités de la chaîne d'approvisionnement pour punir des désaccords de politique intérieure pourrait déstabiliser le partenariat solide entre le gouvernement américain et le secteur technologique privé — un partenariat qui a été le moteur de l'innovation américaine pendant des décennies.
« C'est une militarisation du droit des marchés publics », a déclaré un analyste principal des politiques au Center for Strategic and International Studies. « Si le gouvernement peut qualifier une entreprise américaine de risque pour la sécurité nationale simplement parce qu'elle ne veut pas construire un type d'arme spécifique, chaque entreprise de technologie à double usage en Amérique est désormais prévenue. »
Cependant, le vide laissé par Anthropic est déjà en train d'être comblé. Coïncidant avec la rupture des relations entre Anthropic et le Pentagone, la firme rivale OpenAI a annoncé un nouveau partenariat de grande envergure avec le Département de la Défense. OpenAI aurait accepté des conditions permettant une application militaire plus large de ses modèles, bien que l'entreprise insiste sur le fait qu'elle conserve des garde-fous contre les abus. Cette divergence a créé un paysage fracturé dans la Silicon Valley : un camp prêt à s'aligner pleinement sur les priorités de la défense pour décrocher des contrats gouvernementaux massifs, et un autre, mené par Anthropic, tentant de maintenir une indépendance éthique même au prix d'une mise sur liste noire fédérale.
La plainte juridique d'Anthropic repose sur la loi sur la procédure administrative (Administrative Procedure Act - APA) et des dispositions spécifiques concernant la sécurité de la chaîne d'approvisionnement. Les avocats de l'entreprise soutiennent que la loi exige que le gouvernement utilise les « moyens les moins restrictifs » nécessaires pour atténuer un risque. En passant immédiatement à une désignation de « risque pour la chaîne d'approvisionnement » — l'« option nucléaire » des réglementations sur les marchés publics — le gouvernement a contourné des remèdes moindres, tels que le simple non-renouvellement de contrats spécifiques.
De plus, Amodei a publiquement déclaré que la grande majorité des clients d'Anthropic ne sont pas affectés. « Elle s'applique manifestement uniquement à l'utilisation de Claude par des clients dans le cadre direct de contrats avec le Département de la Guerre, et non à toute utilisation de Claude par des clients qui possèdent de tels contrats », a écrit Amodei dans un message rassurant aux clients commerciaux. Malgré cela, le préjudice réputationnel d'être groupé avec des adversaires étrangers est sévère.
La plainte allègue également que la désignation était une mesure de rétorsion. Des mémos internes cités dans le dossier suggèrent que les responsables de l'administration étaient frustrés par le manque de soutien politique d'Anthropic et ses critiques virulentes à l'égard des politiques agressives de déréglementation de l'IA de l'administration.
Alors que l'affaire se dirige vers un tribunal fédéral, les enjeux dépassent largement les revenus gouvernementaux d'Anthropic. Le jugement définira probablement l'étendue du pouvoir du gouvernement américain à contraindre des entreprises privées à aider dans des opérations militaires.
Si les tribunaux confirment la désignation du Pentagone, cela affirmera une doctrine où les intérêts de sécurité nationale l'emportent sur la gouvernance d'entreprise et les chartes éthiques. Si Anthropic l'emporte, cela pourrait établir un bouclier juridique pour les entreprises technologiques, leur permettant de participer au marché gouvernemental tout en conservant leur propre boussole morale.
Pour l'instant, l'industrie observe avec impatience. Le résultat déterminera si la « sécurité de l'IA » reste un modèle commercial viable pour les entreprises proches du secteur de la défense, ou si l'alignement avec les objectifs militaires de l'État devient le prix d'entrée non négociable.
Chronologie des événements menant à la poursuite judiciaire :
Ce conflit représente la maturation de l'industrie de l'IA. N'étant plus seulement une curiosité scientifique ou un outil de productivité, l'IA avancée est désormais considérée comme un actif national critique — et une arme. La résistance d'Anthropic marque la première tentative significative d'un créateur de cette technologie pour affirmer le contrôle de son destin ultime contre la volonté de l'État.