
Dans une révélation qui expose le fossé grandissant entre les directives politiques de Washington et les réalités opérationnelles de la guerre moderne, des rapports confirment que l'armée américaine s'est largement appuyée sur l'IA Claude d'Anthropic lors des frappes aériennes massives de samedi contre l'Iran. Cette utilisation est intervenue quelques heures seulement après que le président Donald Trump a émis un décret (Executive Order) radical interdisant l'outil dans toutes les agences fédérales.
L'opération, qui visait des sites de missiles iraniens clés et des infrastructures de commandement et de contrôle, a été exécutée avec une précision partiellement attribuée aux évaluations de renseignement avancées traitées par Claude. L'incident met en lumière une contradiction flagrante : la technologie même désignée comme un « risque pour la sécurité nationale » par le commandant en chef vendredi soir était, dès samedi matin, instrumentale dans l'exécution de l'un des engagements militaires les plus significatifs de la décennie.
La séquence des événements menant aux frappes illustre la friction entre l'intégration technologique rapide et la gouvernance bureaucratique. Le vendredi 27 février 2026, la Maison-Blanche a intensifié son conflit de plusieurs mois avec Anthropic. Citant le refus de l'entreprise de supprimer les « lignes rouges » éthiques concernant la force létale autonome, le président Trump a ordonné la cessation immédiate de tous les contrats gouvernementaux avec la firme d'IA basée à San Francisco.
Le secrétaire à la Défense Pete Hegseth a renforcé cette directive tard vendredi soir, désignant formellement Anthropic comme un « risque pour la chaîne d'approvisionnement » — une classification historiquement réservée aux adversaires étrangers comme Huawei. Pourtant, alors que le soleil se levait sur le Moyen-Orient samedi, le US Central Command (CENTCOM) était déjà plongé dans la phase opérationnelle des frappes, utilisant le logiciel interdit pour traiter les données du champ de bataille en temps réel.
Le tableau suivant présente les directives et actions contradictoires qui ont défini cette fenêtre chaotique de 24 heures :
Directive vs réalité : le conflit de 24 heures
---|---|----
Directive politique (vendredi)|Réalité opérationnelle (samedi)|Résultat
Ordre présidentiel : Cessation immédiate de tous les outils Anthropic.|Utilisation par le CENTCOM : Utilisation continue de Claude pour le renseignement en temps réel.|Violation directe du décret (Executive Order) pendant un combat actif.
Classification du DoD : « Risque pour la chaîne d'approvisionnement » et « Menace pour la sécurité nationale ».|Dépendance sur le terrain : Utilisé pour l'identification des cibles et la simulation de scénarios.|Dépendance prouvée à une technologie « interdite » pour le succès de la mission.
Statut du fournisseur : Ordre à tous les contractants de rompre les liens.|Niveau d'intégration : Profondément ancré dans les flux de travail de commandement.|Retrait immédiat jugé opérationnellement impossible.
Selon des sources de la défense, l'application spécifique de Claude lors des frappes en Iran est allée bien au-delà des tâches administratives de base. Le modèle d'IA aurait été utilisé pour synthétiser de vastes quantités d'imagerie satellite, de renseignement d'origine électromagnétique (SIGINT) et de données en sources ouvertes pour identifier des cibles viables au sein du réseau complexe de défense aérienne de l'Iran.
Des initiés militaires suggèrent que la capacité de Claude à traiter des « données non structurées » (Unstructured Data) a donné aux planificateurs un avantage de vitesse critique. Dans les heures précédant la frappe, l'IA a aidé à :
Le recours à Claude pour ces applications létales contredit directement les propres conditions d'utilisation d'Anthropic, qui interdisent strictement l'utilisation de leurs modèles à des « fins violentes » ou pour le « développement d'armes ». Cela suggère que le Pentagone a pu utiliser une version « débridée » (jailbroken) ou localisée du modèle, ou a simplement ignoré les contraintes éthiques du fournisseur dans le feu de l'action.
L'interdiction prononcée par le président Trump n'était pas seulement procédurale mais idéologique. L'administration a fréquemment critiqué Anthropic pour son approche d'« IA constitutionnelle (Constitutional AI) », qui intègre des principes de sécurité que la Maison-Blanche considère comme des obstacles « woke » à la domination militaire américaine.
Sur Truth Social, le président a fustigé l'entreprise comme une organisation de « gauche radicale », arguant que son refus d'accorder au Pentagone un accès illimité à son code constituait une trahison. La position de l'administration est claire : en temps de guerre, l'armée américaine doit avoir un contrôle absolu sur son arsenal numérique, sans être entravée par les scrupules moraux des ingénieurs de la Silicon Valley.
Cette position politique a culminé avec l'ultimatum de vendredi délivré par le secrétaire Hegseth. L'exigence était simple : Anthropic doit renoncer à ses « lignes rouges » — spécifiquement celles empêchant le ciblage autonome sans supervision humaine — ou faire face à une liste noire fédérale totale. Lorsque le PDG Dario Amodei a refusé, l'interdiction a été signée.
L'incident a déclenché une crise discrète mais intense au sein du Pentagone. Alors que la direction politique sous Hegseth est alignée sur l'interdiction du président, la hiérarchie militaire et les commandants opérationnels font face à une réalité différente. Pour eux, les outils d'IA comme Claude sont devenus aussi essentiels que le GPS.
« On ne peut pas simplement "désinstaller" une couche de renseignement fondamentale six heures avant une frappe », a noté un analyste de la défense. « La Maison-Blanche a traité cela comme la suppression d'une application sur un téléphone, mais en réalité, c'est plutôt comme arracher le câblage d'une maison alors que les lumières sont allumées. »
Ce décalage suggère que si la volonté politique existe pour s'éloigner des fournisseurs d'IA « éthiquement contraints », la transition technique est beaucoup plus lente. La conséquence immédiate a été une ruée des concurrents pour combler le vide, OpenAI finalisant apparemment un accord classifié pour déployer ses modèles au sein des systèmes du DoD quelques heures seulement après l'annonce de l'interdiction d'Anthropic.
Les événements de ce week-end servent d'étude de cas critique pour l'avenir de la gouvernance de l'IA. Le « paradoxe Anthropic » — où un outil est simultanément un risque de sécurité banni et un actif de combat critique — expose la fragilité des politiques actuelles d'acquisition d'IA.
Les points clés à retenir pour l'industrie de la défense incluent :
Alors que la poussière retombe sur les cibles en Iran, la bataille à Washington ne fait que commencer. L'administration devrait lancer une enquête sur le défi du CENTCOM face à l'interdiction, ce qui pourrait mener à des passages en cour martiale ou à des démissions. Cependant, la victoire silencieuse appartient à l'algorithme : quelle que soit la politique, l'IA était dans la boucle, et elle a fonctionné.
Les frappes américaines sur l'Iran ont remodelé le paysage géopolitique, mais elles ont également tracé une nouvelle ligne de front dans le secteur technologique national. L'utilisation de l'IA Claude d'Anthropic en violation directe d'un ordre présidentiel prouve que, à l'ère moderne, la capacité technologique l'emporte souvent sur l'autorité politique.
Pour Creati.ai, cela marque un tournant. L'ère de l'IA à « double usage » — où le même modèle écrit de la poésie et planifie des frappes aériennes — touche peut-être à sa fin. À sa place, nous assistons à la bifurcation de l'industrie entre une IA « civile sécurisée » et des outils de « qualité militaire », le gouvernement américain exigeant que ses soldats de silicium suivent les ordres aussi aveuglément que ses soldats humains.