
L'équilibre précaire entre le développement éthique de l'intelligence artificielle et les impératifs de sécurité nationale a atteint un point de rupture. Anthropic, le laboratoire d'IA basé à San Francisco renommé pour son « IA constitutionnelle » (Constitutional AI) et sa philosophie de la sécurité avant tout, fait face à une menace existentielle de la part de son client potentiel le plus puissant : le département de la Défense des États-Unis (Department of Defense - DoD). Des rapports confirment que le Pentagone envisage activement de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement » (supply chain risk), une étiquette draconienne généralement réservée aux adversaires étrangers, à la suite de différends houleux sur l'utilisation de ses modèles Claude dans des opérations militaires actives.
Au centre de cette tempête se trouvent un contrat de défense de 200 millions de dollars et un désaccord fondamental sur le rôle des agents autonomes (Autonomous agents) dans la guerre. Alors que des concurrents comme OpenAI et xAI ont pris des mesures pour répondre à la demande des militaires pour « toutes les fins légales », Anthropic est resté ferme sur ses lignes rouges — spécifiquement concernant la surveillance de masse et les armes létales totalement autonomes. Le conflit est passé des négociations en salle de conseil à une potentielle liste noire à l'échelle de l'industrie, signalant un moment charnière pour l'intégration de l'IA de pointe dans la base industrielle de défense.
La friction entre Anthropic et les responsables de la défense aurait débordé à la suite d'une opération classifiée en janvier 2026 impliquant la tentative de capture de l'ancien président vénézuélien Nicolás Maduro. Selon des sources proches du dossier, le Pentagone a utilisé Claude — via une intégration avec le partenaire d'analyse de données Palantir — pour traiter des renseignements en temps réel pendant la mission.
Bien que l'opération ait été jugée comme un succès tactique selon les normes militaires, les suites ont déclenché une grave rupture diplomatique entre l'entreprise technologique et le DoD. Lors d'un examen de routine post-opération, les ingénieurs d'Anthropic auraient remis en question l'application spécifique de leur modèle dans le raid, craignant que le déploiement ne se rapproche trop des chaînes de décision létales. Cette enquête a été perçue par la direction du Pentagone non pas comme une surveillance responsable, mais comme une intrusion inacceptable d'un fournisseur privé dans la conduite militaire souveraine.
Le secrétaire à la Défense Pete Hegseth a depuis adopté une position ferme, déclarant selon certaines informations que le DoD « n'emploiera pas de modèles qui ne vous permettent pas de faire la guerre ». Ce sentiment reflète une frustration croissante au sein du Pentagone face au fait que les garde-fous idéologiques d'Anthropic sont incompatibles avec la vitesse et la létalité requises dans les conflits modernes. Le DoD soutient que si un cas d'utilisation est légal en vertu du droit international et américain, ses fournisseurs de technologie ne devraient pas avoir de droit de veto basé sur une moralité d'entreprise privée.
Le cœur du différend réside dans les définitions divergentes de la « sécurité ». Pour Anthropic, la sécurité est encodée dans l'architecture même de Claude, conçue pour refuser les demandes qui violent sa constitution — y compris favoriser les violations des droits de l'homme ou agir comme une arme entièrement autonome. Pour le Pentagone, la sécurité signifie l'assurance qu'un outil fonctionnera de manière fiable et sans restriction lorsqu'un commandant donne un ordre légal.
Anthropic a explicitement refusé de franchir deux seuils spécifiques :
Bien que ces restrictions s'alignent sur les valeurs de nombreux membres de la communauté de recherche en IA, elles sont considérées comme des handicaps par les planificateurs de la défense. Le contre-argument du Pentagone est que « toutes les fins légales » englobent une large gamme d'activités létales et de surveillance nécessaires à la défense nationale. En refusant d'accorder une dérogation générale pour ces catégories, Anthropic est perçu comme créant une faille de fiabilité qui pourrait mettre en danger le personnel sur le terrain.
Le tableau ci-dessous présente la position actuelle des principaux laboratoires d'IA concernant l'intégration militaire :
Comparaison de la position des principaux laboratoires d'IA sur les contrats de défense
---|---|----
Labo d'IA|Posture militaire|Conflits clés / Statut
Anthropic|Restrictive / Garde-fous éthiques|Risque de désignation « Supply Chain Risk » en raison du refus de l'autonomie létale.
OpenAI|Flexible / Collaboratif|A supprimé l'interdiction « militaire et guerre » ; négocie des liens plus étroits pour un usage « légal ».
xAI|Sans restriction / Belliciste|Recherche agressivement des contrats de défense ; aligné avec les initiatives de défense « America First ».
Google (DeepMind)|Modéré / Spécifique aux projets|Résistance interne historique (Project Maven) mais poursuit des contrats JADC2.
L'aspect le plus alarmant de cette histoire en cours est la menace du Pentagone de qualifier Anthropic de « risque pour la chaîne d'approvisionnement ». Cette désignation est bien plus dommageable que la simple perte d'un contrat unique de 200 millions de dollars. Dans l'écosystème des contrats fédéraux, une étiquette de risque pour la chaîne d'approvisionnement agit comme une contagion.
Si elle était appliquée, elle contraindrait légalement les maîtres d'œuvre — tels que Lockheed Martin, Northrop Grumman et Palantir — à supprimer le code d'Anthropic de leurs systèmes pour maintenir leur propre éligibilité aux travaux gouvernementaux. Cela pourrait effectivement exiler Claude de l'ensemble du marché fédéral, y compris des agences non militaires qui adhèrent aux normes de sécurité du DoD.
Les analystes du secteur préviennent que cette mesure est conçue pour faire d'Anthropic un exemple. « Le Pentagone envoie un message clair à la Silicon Valley », note un expert en politique de défense du Lawfare Institute. « Vous pouvez avoir vos déclarations d'éthique, ou vous pouvez avoir des contrats gouvernementaux, mais vous ne pouvez pas dicter les règles d'engagement à l'armée des États-Unis. »
Le moment de cet affrontement n'est pas fortuit. Il survient alors qu'Anthropic sort sa nouvelle génération d'« agents autonomes » — des systèmes d'IA capables d'exécuter des tâches complexes et multi-étapes avec une intervention humaine minimale. Alors que ces agents passent du statut de chatbots à celui d'opérateurs actifs capables d'écrire du code, de contrôler des systèmes cybernétiques et d'analyser des données géospatiales, les enjeux de leur contrôle ont augmenté de manière exponentielle.
Le Pentagone considère ces agents autonomes comme essentiels pour maintenir la parité avec des adversaires de force comparable (near-peer adversaries) comme la Chine, qui intègrent rapidement l'IA dans leurs chaînes de destruction. La crainte au sein du DoD est que le fait de s'appuyer sur un modèle qui pourrait « refuser » un ordre lors d'une offensive cybernétique critique ou d'une coordination d'essaims de drones constitue une vulnérabilité stratégique qu'ils ne peuvent se permettre.
Pendant qu'Anthropic campe sur ses positions, ses concurrents capitalisent sur cette rupture. Des rapports indiquent que xAI et OpenAI ont accéléré leurs processus d'habilitation, proposant des versions « non censurées » ou « opérationnelles » de leurs modèles pour des environnements classifiés. Ces alternatives promettent au Pentagone exactement ce qu'il demande : de puissantes capacités de renseignement sans la friction de l'arbitrage moral.
Pour les lecteurs de Creati.ai et l'industrie technologique au sens large, cette impasse représente une divergence charnière. Si Anthropic est sanctionné, cela pourrait refroidir les initiatives de « sécurité avant tout » dans tout le secteur, incitant les laboratoires à donner la priorité à la conformité plutôt qu'à la conscience. À l'inverse, si Anthropic maintient sa position, cela pourrait établir un nouveau précédent où l'éthique du secteur privé parvient à freiner l'automatisation incontrôlée de la guerre.
Alors que l'échéance du renouvellement du contrat approche, l'industrie observe avec le souffle coupé. L'issue décidera non seulement du sort d'un accord de 200 millions de dollars, mais aussi de si l'avenir de l'IA militaire sera façonné par les exigences du Pentagone ou par les lignes rouges éthiques de ses créateurs.