
À un moment décisif pour l'industrie de l'intelligence artificielle (Generative AI), le paysage des contrats de défense gouvernementaux a été radicalement remodelé en l'espace de 24 heures. Le vendredi 28 février 2026, le PDG d'OpenAI, Sam Altman, a annoncé un accord historique pour déployer les modèles avancés de l'entreprise au sein des réseaux classifiés du Pentagone. Cette annonce se situe en contraste total et polarisé avec le sort du laboratoire rival Anthropic, que l'administration Trump a officiellement désigné comme un « risque pour la chaîne d'approvisionnement », l'excluant de fait des affaires fédérales.
Ces développements simultanés marquent l'aboutissement de mois de tensions croissantes entre les laboratoires d'IA de pointe de la Silicon Valley et une Maison Blanche déterminée à imposer un « accès illimité » à la technologie pour la défense nationale. Tandis qu'OpenAI a réussi à naviguer à travers les exigences de l'administration grâce à ce qu'elle décrit comme des « garanties techniques », le refus d'Anthropic de céder du terrain sur ses principes d'IA constitutionnelle a entraîné une action punitive sans précédent contre une entreprise américaine.
Tard vendredi soir, Sam Altman a confirmé qu'OpenAI était parvenue à un accord avec le Département de la Défense — désigné par l'administration actuelle et dans la déclaration d'Altman comme le « Département de la Guerre » (Department of War - DoW). L'accord accorde aux militaires l'accès aux modèles de pointe d'OpenAI pour des opérations classifiées, une initiative qui, selon les détracteurs, contredit la charte originale à but non lucratif de l'entreprise, mais qu'Altman défend comme une évolution nécessaire de la sécurité de l'IA (AI safety) dans la gouvernance démocratique.
L'accord se concentre sur une architecture de déploiement « cloud-only ». Selon OpenAI, cette structure leur permet de maintenir une « pile de sécurité » (safety stack) qui impose des lignes rouges spécifiques, même au sein d'environnements classifiés.
Dispositions clés de l'accord OpenAI-Pentagone :
« Dans toutes nos interactions, le DoW a fait preuve d'un profond respect pour la sécurité et d'un désir de partenariat pour obtenir le meilleur résultat possible », a écrit Altman dans une déclaration sur X. Il a par ailleurs affirmé que le contrat d'OpenAI offre de « meilleures garanties et des mesures de protection plus responsables » que les accords précédents conclus par ses concurrents, faisant implicitement référence à l'arrangement désormais caduc d'Anthropic.
Tandis que la direction d'OpenAI célébrait son nouveau partenariat, Anthropic faisait face à un assaut réglementaire existentiel. Le conflit aurait atteint un point de rupture jeudi, lorsqu'Anthropic a refusé un ultimatum du Pentagone demandant la suppression de garde-fous spécifiques concernant les capacités d'armement autonome et de surveillance.
Le secrétaire à la Défense Pete Hegseth a répondu par une réprimande cinglante, qualifiant le refus de l'entreprise de « cas d'école d'arrogance et de trahison ». En conséquence, le Département de la Défense a officiellement désigné Anthropic comme un « risque pour la chaîne d'approvisionnement (supply chain risk) ». Cette classification, historiquement réservée aux entités étrangères considérées comme des menaces pour la sécurité nationale — telles que Huawei ou Kaspersky Lab — est désormais appliquée à une startup basée à San Francisco et massivement financée par Amazon et Google.
Le président Trump a intensifié la rhétorique sur Truth Social, qualifiant la direction de l'entreprise d'acteurs de la « gauche radicale, Woke » tentant de faire du « chantage » aux militaires. L'administration a émis une directive ordonnant à toutes les agences fédérales de « cesser immédiatement » l'utilisation de la technologie d'Anthropic, bien qu'une période de retrait progressif de six mois ait été accordée pour certains systèmes de défense critiques afin de passer à d'autres fournisseurs — probablement OpenAI ou Palantir.
Cette scission met en lumière un désaccord fondamental sur le rôle des entreprises technologiques privées dans la sécurité nationale. L'administration Trump a clairement indiqué qu'elle considérait le refus de se conformer aux exigences militaires comme un manque de patriotisme, tandis qu'Anthropic soutient que son refus est fondé sur des devoirs éthiques qui transcendent les directives gouvernementales.
Le tableau suivant présente les différences critiques dans la manière dont les deux principaux laboratoires d'IA ont abordé cette négociation à enjeux élevés :
Tableau : Analyse comparative des stratégies de défense d'OpenAI et d'Anthropic
| Métrique | Approche d'OpenAI | Approche d'Anthropic |
|---|---|---|
| Posture principale | Engagement avec des « garanties techniques » | Refus basé sur des « lignes rouges » éthiques |
| État du contrat | Actif, accès classifié étendu | Résilié, désigné « Risque pour la chaîne d'approvisionnement » |
| Concession clé | Acceptation des termes du « Département de la Guerre (Department of War) » | Refus de modification illimitée du modèle |
| Posture sur la surveillance | Interdite via des clauses contractuelles | Capacité refusée au niveau technique |
| Relation avec l'admin | Collaborative, image de marque « Patriotique » | Adversaire, étiqueté « Woke/Risque » |
| Modèle de déploiement | Cloud-only (Contrôle conservé) | Refus de déploiement inconditionnel en périphérie (edge) |
La désignation d'Anthropic comme risque pour la chaîne d'approvisionnement est un événement majeur sur les plans juridique et économique. Elle interdit non seulement les contrats gouvernementaux directs, mais interdit également de fait à tout entrepreneur fédéral d'utiliser les outils d'Anthropic dans ses flux de travail. Pour une base industrielle de défense qui repose lourdement sur des chaînes d'approvisionnement logicielles interconnectées, cela force des entreprises comme Lockheed Martin, Booz Allen Hamilton, et potentiellement même des fournisseurs de cloud comme AWS, à isoler ou à purger les modèles Claude d'Anthropic de leurs écosystèmes pour rester en conformité.
Les experts juridiques prévoient une bataille judiciaire féroce. Anthropic a juré de contester cette désignation, la qualifiant de « juridiquement infondée » et d'acte d'« intimidation ». L'entreprise soutient que la branche exécutive n'a pas l'autorité de mettre sur liste noire une entreprise nationale pour un simple désaccord contractuel sur les conditions de service. Cependant, en vertu du Defense Production Act — que l'administration a menacé d'invoquer — le gouvernement fédéral détient des pouvoirs étendus pour diriger les ressources industrielles vers la défense nationale.
La nouvelle a provoqué une onde de choc dans le secteur de l'IA. Les investisseurs réévaluent déjà la valeur à long terme des laboratoires privilégiant la sécurité (« safety-first ») qui risquent de s'aliéner les clients gouvernementaux. La valorisation d'OpenAI devrait connaître une pression positive grâce à la certitude de revenus gouvernementaux à long terme, tandis qu'Anthropic fait face à une potentielle crise de liquidité si la liste noire effraie les clients commerciaux qui craignent une contagion réglementaire.
De plus, l'utilisation par l'administration du terme « Département de la Guerre » — un retour à l'appellation d'avant 1947 — signale un changement idéologique plus large. Cela suggère une posture plus agressive et axée sur le combat pour la politique de défense des États-Unis, une posture qui exige un alignement total de ses partenaires industriels.
La rapidité avec laquelle la relation entre Anthropic et la Maison Blanche s'est détériorée souligne la volatilité de l'environnement réglementaire actuel.
Tableau : Événements clés menant à la liste noire
| Date/Heure | Description de l'événement | Acteur clé |
|---|---|---|
| Juillet 2025 | Anthropic signe un contrat pilote initial de 200 millions de dollars. | DOD / Anthropic |
| 26 fév. 2026 | Le Pentagone émet un ultimatum pour un « accès illimité ». | Sec. Défense Hegseth |
| 27 fév. 2026 | Anthropic refuse les exigences ; manque la date limite de 17h01. | PDG Dario Amodei |
| 27 fév. 2026 | Trump ordonne l'interdiction fédérale ; Hegseth émet le label « Risque ». | Maison Blanche |
| 28 fév. 2026 | OpenAI annonce un accord avec le « Département de la Guerre ». | Sam Altman |
| 28 fév. 2026 | Anthropic promet une contestation judiciaire contre la désignation. | Équipe juridique d'Anthropic |
Alors que la poussière retombe sur cette semaine chaotique, le message de Washington est sans équivoque : dans la course à la suprématie de l'IA, le gouvernement américain exige la soumission de ses fournisseurs. OpenAI a choisi de s'adapter, élaborant un cadre qui lui permet de servir le « Département de la Guerre » tout en affirmant maintenir sa mission de sécurité. Anthropic, en restant ferme sur ses principes, fait maintenant face à tout le poids de l'appareil fédéral.
L'issue de la contestation judiciaire d'Anthropic définira probablement les limites de l'autonomie des entreprises à l'ère de l'IA de sécurité nationale. Pour l'instant, cependant, le Pentagone a fait son choix, et OpenAI s'est engouffrée dans la brèche.