
Washington, D.C. — La tension entre le mouvement pour une IA éthique de la Silicon Valley et l'establishment militaire des États-Unis a atteint un point de rupture. Le PDG d'Anthropic, Dario Amodei, a été convoqué au Pentagone pour une réunion à enjeux élevés avec le secrétaire à la Défense, Pete Hegseth, prévue pour plus tard cette semaine. Le sommet intervient alors que des rapports indiquent que le Département de la Défense (Department of Defense, DoD) — récemment rebaptisé par décret « Département de la Guerre » (Department of War) — menace de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement » (supply chain risk). Un tel label exclurait de fait l'entreprise des contrats fédéraux et forcerait les maîtres d'œuvre de la défense à rompre leurs liens avec le créateur de Claude.
Le conflit porte sur le refus d'Anthropic d'assouplir ses garde-fous d'« IA Constitutionnelle » (Constitutional AI) pour des applications militaires. Alors que le Pentagone cherche un accès « sans restriction » à l'IA générative (Generative AI) pour ce qu'il considère comme des « fins licites », Anthropic aurait bloqué des demandes spécifiques liées au ciblage d'armes autonomes et aux capacités de surveillance intérieure.
La menace de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement » représente une escalade sans précédent dans les relations du gouvernement avec le secteur privé de l'IA. Historiquement réservée aux adversaires étrangers ou aux fournisseurs compromis (tels que Kaspersky Lab ou Huawei), cette désignation aurait des conséquences commerciales catastrophiques pour Anthropic.
Des sources proches des négociations indiquent que le secrétaire à la Défense Hegseth est frustré par ce qu'il perçoit comme une ingérence excessive de l'entreprise. La position du Pentagone est qu'une fois qu'une technologie est acquise, son « usage licite » est déterminé par le commandant en chef et le Congrès, et non par les conditions de service d'une entreprise privée.
Si la désignation est adoptée, elle déclencherait un découplage immédiat :
Le catalyseur de cette confrontation semble être une opération classifiée menée en janvier 2026. Des rapports du Wall Street Journal et d'Axios ont révélé que les forces d'opérations spéciales américaines ont utilisé une version personnalisée de Claude — accessible via l'AIP de Palantir — pour analyser des renseignements en temps réel lors de la mission qui a conduit à la capture de l'ancien président vénézuélien Nicolás Maduro.
Bien que l'opération ait été considérée comme un succès, les dirigeants d'Anthropic auraient été pris de court par l'application spécifique de leur modèle, arguant qu'elle violait leurs normes d'utilisation universelles concernant l'« action militaire cinétique » et l'« intervention politique ». Lorsque les ingénieurs d'Anthropic ont tenté de corriger le modèle pour empêcher des utilisations futures similaires, les responsables du Pentagone ont vu cette initiative comme un acte d'ingérence dans les opérations de sécurité nationale.
Le sous-secrétaire à la Défense pour la recherche et l'ingénierie, Emil Michael, a publiquement critiqué la position de l'entreprise plus tôt cette semaine. « Le Congrès rédige les lois, le Président les signe et les agences les mettent en œuvre », a déclaré Michael. « Il n'est pas démocratique qu'un fournisseur de logiciels privé dicte les règles d'engagement de l'armée des États-Unis. Nous avons besoin de garde-fous, certes, mais ils doivent être calibrés pour le combat, pas pour les relations publiques de l'entreprise. »
La rupture avec Anthropic contraste fortement avec le réchauffement des relations du Pentagone avec d'autres géants de l'IA. Dans le cadre de la nouvelle « Stratégie d'accélération de l'IA », le Département de la Guerre a entrepris d'intégrer des modèles offrant moins de points de friction concernant l'autonomie létale et la surveillance.
Tableau 1 : Intégration militaire et position politique des principaux fournisseurs d'IA
| Entreprise | Modèle phare | Statut de l'intégration militaire | Distinction politique clé |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | À risque (En cours de révision) | Une « IA Constitutionnelle » stricte interdit les armes autonomes et la surveillance intérieure. Refuse de renoncer à sa responsabilité en cas d'erreurs létales. |
| xAI | Grok 3 | Actif (Partenaire GenAI.mil) | Alignement sur la politique « America First ». Promet une utilisation sans restriction pour les intérêts de sécurité nationale. |
| OpenAI | GPT-5 | Actif (Phase pilote) | Politiques d'utilisation modifiées pour autoriser les applications de « sécurité nationale ». Maintient l'interdiction du développement d'armes mais autorise l'analyse opérationnelle. |
| Gemini Ultra | Actif (Projet Maven) | Profondément intégré à la logistique et à la cyberdéfense. Se concentre sur les systèmes avec « humain dans la boucle » pour atténuer les préoccupations éthiques. |
Au cœur de cette impasse se trouve une divergence philosophique fondamentale. Anthropic a été fondée sur le principe de la sécurité de l'IA (AI Safety), utilisant une « Constitution » pour entraîner des modèles à être utiles, inoffensifs et honnêtes. Dario Amodei a fréquemment mis en garde contre les « risques catastrophiques » posés par une IA non alignée, citant spécifiquement le potentiel de l'IA à abaisser la barrière à l'entrée pour les armes biologiques ou les cyberattaques.
Cependant, le Département de la Guerre soutient qu'à l'ère de la « Guerre froide 2.0 » (Cold War 2.0), les handicaps éthiques auto-imposés équivalent à un désarmement unilatéral. Face à des adversaires comme la Chine qui intègrent agressivement l'IA dans leurs chaînes de destruction (kill chains), la doctrine du secrétaire Hegseth met l'accent sur la vitesse et la létalité. L'initiative « AI-first warfighting force » du Pentagone exige des modèles capables de traiter les flux de drones, de générer des solutions de ciblage et d'exécuter des cyber-offensives sans « contraintes idéologiques ».
La réunion à venir entre Amodei et Hegseth devrait être animée. Les analystes prévoient trois issues possibles :
Pour l'ensemble de l'industrie de l'IA, le résultat de cette réunion constituera un précédent définitif. Il déterminera si la « sécurité de l'IA » reste un principe directeur pour le déploiement de la technologie, ou si les nécessités de la défense nationale finiront par l'emporter sur les constitutions éthiques de la Silicon Valley.