
Washington, D.C. — Dans une escalade historique et sans précédent du conflit entre les laboratoires d'IA de la Silicon Valley et le gouvernement fédéral, le département de la Guerre (anciennement département de la Défense) a résilié son contrat de 200 millions de dollars avec Anthropic. Cette décision intervient après que l'entreprise de sécurité de l'IA a refusé de lever les restrictions opérationnelles sur l'utilisation de ses modèles pour l'armement autonome et la surveillance de masse.
Dans une directive publiée tard hier, le secrétaire à la Guerre, Pete Hegseth, a officiellement désigné Anthropic comme un « risque pour la chaîne d'approvisionnement pour la sécurité nationale » (Supply-Chain Risk to National Security), une étiquette historiquement réservée aux adversaires étrangers et aux fournisseurs de télécommunications jugés hostiles aux intérêts des États-Unis. Cette désignation déclenche une interdiction immédiate de toutes les interactions commerciales entre le vaste réseau de sous-traitants de l'armée américaine et la société d'IA basée à San Francisco.
Cette résiliation marque le point culminant d'un différend de plusieurs mois concernant les « lignes rouges » éthiques intégrées dans le modèle phare d'Anthropic, Claude. Alors que le Pentagone a cherché un accès « illimité » aux modèles d'IA de pointe pour maintenir une domination stratégique, Anthropic a fermement refusé de modifier sa politique d'utilisation acceptable (Acceptable Use Policy, AUP) pour accommoder des applications spécifiques de létalité et de surveillance.
Des sources proches des négociations rapportent que le département de la Guerre a exigé la suppression des garde-fous qui empêchent Claude d'être utilisé pour piloter des drones entièrement autonomes ou pour analyser des données de communications nationales à grande échelle. Le PDG d'Anthropic, Dario Amodei, aurait rejeté ces conditions, affirmant que l'entreprise ne pouvait pas « en toute conscience » permettre que sa technologie soit déployée de manière à saper les valeurs démocratiques ou à manquer d'une supervision humaine significative.
« Il ne s'agit pas d'un échec de capacité, mais d'un choc de principes », a déclaré un analyste principal de Creati.ai. « Anthropic parie effectivement son entreprise sur l'idée que la sécurité de l'IA n'est pas négociable, même lorsque le client est l'armée la plus puissante de la planète. »
Le développement le plus significatif n'est pas la perte du contrat lui-même, mais l'invocation de l'autorité de « risque pour la chaîne d'approvisionnement » contre une entreprise américaine nationale. L'ordre du secrétaire Hegseth va bien au-delà d'une simple annulation de services.
Implications clés de la désignation :
Des experts juridiques ont déjà mis en doute la validité de l'utilisation des autorités de la chaîne d'approvisionnement — conçues pour prévenir l'espionnage et le sabotage étrangers — pour punir un différend contractuel national sur des directives éthiques. Anthropic a juré de contester la désignation devant un tribunal fédéral, la décrivant comme une « représaille idéologique » plutôt que comme une véritable évaluation de la sécurité.
Alors qu'Anthropic quitte le portefeuille du Pentagone, le laboratoire rival OpenAI a agi rapidement pour consolider sa position en tant que partenaire principal de l'armée en matière d'IA. Des rapports indiquent qu'OpenAI a accepté des conditions qu'Anthropic avait rejetées, menant à un nouvel accord lucratif pour déployer des systèmes basés sur GPT-4 au sein de réseaux classifiés.
La transition a déclenché une querelle publique amère entre les deux géants de l'IA. Suite aux rapports sur le nouvel accord d'OpenAI, Dario Amodei a publié un mémo interne cinglant, dont des parties ont été divulguées aux médias technologiques. Amodei a accusé OpenAI de se livrer à un « théâtre de la sécurité » et a qualifié leurs messages publics concernant les garde-fous militaires de « purs mensonges ».
« OpenAI se présente comme un pacificateur tout en signant des accords qui érodent les normes de sécurité mêmes qu'ils prétendent défendre », a écrit Amodei. Il a allégué que l'accord d'OpenAI inclut probablement des « failles » qui annulent de fait les restrictions sur la létalité autonome, une affirmation qu'OpenAI a vigoureusement démentie, déclarant que leur partenariat se concentre uniquement sur des « applications défensives légales ».
La mise sur liste noire d'Anthropic envoie un signal glaçant à l'écosystème plus large de l'IA. Elle suggère que le gouvernement américain n'est plus disposé à tolérer une « friction éthique » de la part de ses fournisseurs de technologies. Pour les start-ups d'IA financées par capital-risque, le message est clair : l'alignement avec les objectifs du département de la Guerre est désormais une condition préalable à la viabilité dans le secteur public.
Le tableau suivant présente les chemins divergents des principaux laboratoires d'IA concernant la collaboration militaire à compter de mars 2026 :
Statut des principaux laboratoires d'IA auprès du département de la Guerre
| Nom du laboratoire | Statut du contrat | Position sur l'autonomie létale |
|---|---|---|
| Anthropic | Résilié / Sur liste noire | Interdiction stricte via l'IA constitutionnelle (Constitutional AI) |
| OpenAI | Actif / Étendu | Autorise l'usage « défensif légal » |
| Google DeepMind | En cours de révision | Restreint, humain dans la boucle (human-in-the-loop) uniquement |
| xAI | Actif / Classifié | Adhésion à un « usage légal » sans restriction |
Les semaines à venir seront critiques pour Anthropic. Si la désignation de « risque pour la chaîne d'approvisionnement » survit à l'examen juridique, l'entreprise fera face à une menace existentielle pour ses activités auprès des entreprises. Les clients corporatifs qui servent également le secteur de la défense pourraient être contraints de migrer vers des modèles alternatifs pour éviter les tirs croisés réglementaires.
Pendant ce temps, le département de la Guerre a signalé que sa patience envers l'« IA woke » — un terme utilisé par le secrétaire Hegseth pour décrire les modèles dotés d'un filtrage de sécurité important — est épuisée. Alors que les États-Unis s'empressent d'intégrer l'IA générative (Generative AI) dans leur infrastructure de commandement et de contrôle, la fracture entre les développeurs d'IA « patriotiques » et les laboratoires privilégiant la sécurité (« safety-first ») est destinée à devenir la ligne de faille définissant l'industrie.