
Dans un moment charnière pour l'industrie de l'intelligence artificielle, Anthropic a rejeté publiquement et définitivement l'offre de contrat « finale et ultime » du département de la Défense des États-Unis. Ce refus, exprimé par le PDG Dario Amodei le 26 février 2026, marque l'un des affrontements les plus significatifs entre la Silicon Valley et Washington depuis le début de l'essor de l'IA. Au cœur du conflit se trouve un désaccord fondamental sur le déploiement du modèle phare d'Anthropic, Claude, dans des systèmes d'armes autonomes létaux et des réseaux de surveillance domestique de masse.
Les négociations, qui se seraient déroulées à huis clos pendant des mois, ont éclaté sur la scène publique lorsque Amodei a publié une déclaration affirmant : « Nous ne pouvons pas, en toute bonne conscience, accéder à leur demande ». Cette décision positionne Anthropic comme le seul laboratoire d'IA de premier plan à résister, soulevant des questions critiques sur l'avenir de l'alignement de l'IA, l'ingérence gouvernementale et l'indépendance des entreprises technologiques privées dans une ère de tensions géopolitiques accrues.
Selon des sources proches des négociations, la proposition finalisée du Pentagone n'était pas un simple contrat d'approvisionnement standard, mais un cadre d'intégration complet. Le département de la Défense (Department of Defense - DoD) cherchait à obtenir un accès sans restriction au code source et aux poids de Claude pour alimenter des systèmes de combat de nouvelle génération.
Le nœud du désaccord porte sur deux cas d'utilisation spécifiques qui violent les principes de l'IA constitutionnelle (Constitutional AI) d'Anthropic :
Le refus d'Amodei a été catégorique. Dans une note envoyée au personnel d'Anthropic et partagée plus tard avec la presse, il a souligné que permettre à Claude d'être utilisé à ces fins « corromprait de manière irréversible les garde-fous de sécurité que nous avons mis des années à construire ».
L'aspect le plus alarmant de cette impasse est sans doute la réponse du gouvernement. Suite au rejet, des responsables du Pentagone auraient menacé d'invoquer la Defense Production Act (DPA) de 1950. Conçue à l'origine pour assurer l'approvisionnement en matériaux industriels pendant la guerre de Corée, la DPA accorde au président une large autorité pour contraindre les entreprises à prioriser les contrats gouvernementaux jugés nécessaires à la défense nationale.
Implications potentielles de l'application de la DPA :
Les experts juridiques avertissent que l'invocation de la DPA pour des logiciels et de la propriété intellectuelle de cette nature déclencherait une bataille juridique constitutionnelle sans précédent, testant les limites du pouvoir gouvernemental sur l'innovation privée.
Le rejet d'Anthropic met en lumière une fracture croissante au sein de l'industrie de l'IA. Alors qu'Anthropic a doublé sa mise sur son éthique de sécurité d'abord, ses concurrents ont pris des chemins différents, invoquant la nécessité de la supériorité technologique américaine sur ses rivaux géopolitiques.
Le tableau suivant compare la position actuelle des principaux laboratoires d'IA concernant l'intégration militaire :
Comparaison de la position militaire des principaux laboratoires d'IA (février 2026)
| Organisation | Position principale sur les contrats militaires | Restrictions clés |
|---|---|---|
| Anthropic | Rejet total de l'usage létal/de surveillance | Interdit les armes autonomes et l'intégration de la surveillance de masse |
| OpenAI | Coopération conditionnelle | Autorise l'usage pour la « sécurité nationale » ; ambigu sur l'autonomie létale |
| Google DeepMind | Partenariat restreint | Les restrictions du projet Maven s'appliquent ; concentré sur la logistique/cyberdéfense |
| Palantir | Intégration complète | Construit activement des plateformes de ciblage létal et de surveillance |
| Microsoft | Alliance stratégique | Fournit l'infrastructure/LLM pour le DoD ; mandat non létal souvent levé |
Cette divergence place Anthropic dans une position financière précaire mais renforce sa marque auprès des clients entreprises soucieux de sécurité et des investisseurs éthiques.
La phrase de Dario Amodei « Nous ne pouvons pas, en toute bonne conscience, accéder » fait écho au langage utilisé lors de la révolte interne de Google contre le projet Maven en 2018, mais les enjeux en 2026 sont nettement plus élevés. Les capacités des modèles de pointe actuels comme Claude 5 dépassent de loin les outils de vision par ordinateur de la décennie précédente.
Cadre éthique vs Nécessité nationale
Le Pentagone soutient que sans accès à la meilleure IA américaine, les États-Unis risquent de prendre du retard sur des adversaires qui ne font face à aucune contrainte éthique de ce type. Des responsables de la défense ont qualifié le refus d'Anthropic de « naïf » et de « potentiellement dangereux » pour les intérêts nationaux.
Cependant, les analystes de Creati.ai suggèrent qu'Anthropic joue sur le long terme. En adhérant strictement à sa charte, l'entreprise préserve l'intégrité de ses recherches sur l'alignement. Si Claude était réentraîné pour la létalité, les contraintes « utile, honnête et inoffensif » (helpful, honest, and harmless) qui rendent le modèle fiable pour un usage professionnel pourraient être fondamentalement déstabilisées, entraînant des comportements imprévisibles dans les applications non militaires.
Des rapports provenant du siège d'Anthropic à San Francisco indiquent un moral élevé suite à la décision, bien que l'anxiété concernant les menaces liées à la DPA reste forte. « Nous n'avons pas construit cela pour blesser des gens », a déclaré un chercheur senior à Creati.ai sous couvert d'anonymat. « Si nous franchissons cette ligne, nous devenons juste un contractant de la défense de plus. »
À mesure que la situation évolue, le monde de la technologie observe si l'administration Biden-Harris mettra à exécution ses menaces d'appliquer la loi sur la production de défense. Une telle initiative jetterait un froid sur la communauté open-source et pourrait pousser le développement de l'IA vers la clandestinité ou l'étranger.
Pour l'instant, Anthropic reste défiant. Le rejet de l'offre finale du Pentagone est plus qu'un différend contractuel ; c'est un test de résistance pour la gouvernabilité des systèmes superintelligents. Si une entreprise privée peut rejeter avec succès l'armée la plus puissante du monde pour des motifs éthiques, cela établit un précédent selon lequel la sécurité et la moralité peuvent encore dicter la trajectoire du progrès technologique.
Les semaines à venir seront cruciales. Le Pentagone se tournera-t-il vers un concurrent comme Palantir ou OpenAI pour combler le vide, ou forcera-t-il la main d'Anthropic par la coercition juridique ? Pour l'équipe de Creati.ai, nous continuerons de suivre cette histoire en évolution, car l'issue définira la relation entre l'IA et l'État pour les décennies à venir.