
Dans une rare démonstration de solidarité intersectorielle qui transcende les rivalités d'entreprise, les employés de Google et d'OpenAI ont uni leurs forces pour soutenir Anthropic dans son bras de fer à enjeux élevés avec le Département de la Défense des États-Unis (U.S. Department of Defense). Le vendredi 27 février 2026, plus de 300 employés de Google DeepMind et plus de 60 d'OpenAI ont signé une lettre ouverte intitulée « Nous ne serons pas divisés » (We Will Not Be Divided), exhortant leurs directions respectives à rester fermes face à l'exigence du Pentagone d'un accès illimité aux modèles d'IA avancés.
Cette action collective marque un moment charnière dans le débat en cours sur la militarisation de l'intelligence artificielle (Intelligence Artificielle, IA). Elle met en lumière un fossé grandissant entre les développeurs de modèles d'IA de pointe (Frontier AI), qui cherchent à maintenir des garde-fous éthiques, et les responsables de la défense qui considèrent ces technologies comme des atouts critiques dans une « course aux armements en temps de guerre ». Alors que le Pentagone menace d'invoquer la Loi sur la production de défense (Defense Production Act, DPA) pour contraindre à la conformité, la main-d'œuvre technologique signale que les « lignes rouges » éthiques concernant les armes autonomes et la surveillance intérieure ne sont pas négociables.
Au cœur de cette controverse se trouve le refus d'Anthropic de modifier ses conditions d'utilisation pour répondre à la demande du Pentagone d'un « usage illimité » de ses modèles Claude. Anthropic, dirigée par le PDG Dario Amodei, a systématiquement maintenu deux interdictions spécifiques dans ses contrats gouvernementaux :
Le Département de la Défense, représenté par le Secrétaire à la Défense Pete Hegseth, aurait exigé qu'Anthropic renonce à ces restrictions spécifiques et autorise « toutes les fins licites ». Bien que le Pentagone affirme n'avoir aucune intention de mener une surveillance illégale, il soutient que le libellé du contrat restreignant l'usage « licite » crée des vulnérabilités opérationnelles et établit un précédent dangereux pour le contrôle des fournisseurs sur les capacités militaires.
La lettre ouverte des employés de Google et d'OpenAI approuve explicitement la position d'Anthropic. « Nous espérons que nos dirigeants mettront de côté leurs différends et resteront unis pour continuer à refuser les exigences actuelles du Département de la Guerre », indique la lettre. Les signataires soutiennent que la campagne de pression du gouvernement est conçue pour fracturer le consensus éthique de l'industrie en montant les entreprises les unes contre les autres.
L'impasse s'est considérablement aggravée fin février 2026 lorsque le Pentagone aurait lancé un ultimatum à Anthropic. Le non-respect de l'échéance du vendredi pourrait entraîner l'invocation de la Loi sur la production de défense (DPA) — une loi de l'époque de la guerre froide qui permet au président de contraindre les entreprises privées à donner la priorité aux contrats de défense nationale.
De plus, les responsables de la défense ont menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » (Supply chain risk) s'il n'accède pas aux demandes. Cette désignation, généralement réservée aux entités étrangères jugées hostiles aux intérêts américains (telles que certaines entreprises de télécommunications chinoises), bannirait de fait Anthropic des marchés publics fédéraux et pourrait nuire à sa réputation commerciale.
La lettre ouverte condamne ces tactiques comme étant des représailles. « Le Département de la Guerre menace d'invoquer la Loi sur la production de défense... tout cela en représailles au fait qu'Anthropic s'en tienne à ses lignes rouges », indique le texte. Les employés préviennent que si le Pentagone réussit à contraindre Anthropic, il tournera ensuite son attention vers Google et OpenAI, exigeant la suppression de leurs garde-fous restants sous couvert de normalisation.
Un thème clé de la lettre des employés est l'accusation selon laquelle le Pentagone utilise une stratégie consistant à « diviser pour mieux régner ». En négociant séparément avec Google, OpenAI et Anthropic, le Département de la Défense crée un dilemme du prisonnier : chaque entreprise craint que si elle maintient des normes éthiques, un concurrent capitulera et obtiendra les contrats gouvernementaux lucratifs.
« Ils essaient de diviser chaque entreprise avec la peur que l'autre cède », explique la lettre. « Cette stratégie ne fonctionne que si aucun d'entre nous ne sait où en sont les autres. »
Cette crainte n'est pas infondée. Des rapports indiquent qu'OpenAI et Google ont fait preuve par le passé de plus de flexibilité dans leurs négociations concernant l'usage militaire « non classifié ». Début 2024, OpenAI a discrètement supprimé l'interdiction explicite de « militaire et guerre » de ses politiques d'utilisation, la remplaçant par une interdiction plus générale de « préjudice », ostensiblement pour permettre des collaborations en matière de cybersécurité et de secours en cas de catastrophe avec l'armée. Cependant, la demande actuelle d'autonomie létale et de capacités de surveillance illimitées semble être un pas de trop, même pour le personnel de ces entreprises plus permissives.
Pour comprendre le paysage de ce conflit, il est essentiel de comparer les positions publiques actuelles des principaux laboratoires d'IA concernant l'intégration militaire.
Tableau : Principaux laboratoires d'IA et positions de politique militaire
| Entreprise | Position principale sur l'usage militaire | « Lignes rouges » spécifiques | État des relations avec le Pentagone |
|---|---|---|---|
| Anthropic | Coopération conditionnelle stricte | Non négociable : Pas de surveillance domestique. Non négociable : Pas d'armes létales autonomes. |
Hostile : Menacée d'invocation de la DPA et d'étiquetage comme « Risque pour la chaîne d'approvisionnement ». |
| OpenAI | Collaborative / Évolutive | S'oppose généralement aux armes autonomes. Politique modifiée en 2024 pour autoriser l'usage lié à la « sécurité nationale ». |
Négociation active : Le PDG Sam Altman chercherait des garde-fous similaires à ceux d'Anthropic. |
| Prudente / Tensions internes | Principes de l'IA (2018) : Pas d'armes ni de surveillance violant les droits de l'homme. Interdit les technologies dont le but principal est de nuire. |
Tendu : Les employés font pression sur la direction (Jeff Dean) pour respecter les engagements de 2018. | |
| Microsoft | Partenaire stratégique | S'aligne sur la légalité du client (DoD). Fournit l'infrastructure pour les modèles classifiés. |
Intégré : Profondément ancré dans l'infrastructure de défense via le partenariat Azure/OpenAI. |
La vague actuelle d'activisme présente des parallèles directs avec la controverse du « Projet Maven » de Google en 2018. Au cours de cette période, des milliers d'employés de Google ont signé une pétition protestant contre un contrat du Pentagone visant à utiliser l'IA pour analyser des images de drones, forçant finalement l'entreprise à laisser le contrat expirer et à publier un ensemble de « Principes de l'IA » qui interdisaient l'utilisation de l'IA de Google pour l'armement.
Cependant, le climat géopolitique de 2026 est nettement différent. Avec l'intensification de la concurrence mondiale en matière d'IA et les menaces perçues des nations rivales, la pression pour déployer des capacités d'« IA souveraine » a augmenté. La lettre « Nous ne serons pas divisés » suggère que les travailleurs de la technologie sont parfaitement conscients que les victoires éthiques de 2018 sont en train de s'éroder.
« Cette lettre sert à créer une compréhension commune et une solidarité face à cette pression », ont écrit les employés. La coalition comprend des ingénieurs, des chercheurs et du personnel politique qui soutiennent que le déploiement de l'IA dans la guerre nécessite une responsabilité humaine stricte — une caractéristique dont les systèmes entièrement autonomes sont intrinsèquement dépourvus.
La réponse de la direction de l'entreprise a été mitigée mais indique que la pression fonctionne. Suite à la publication de la lettre, des rapports ont fait surface indiquant que le PDG d'OpenAI, Sam Altman, s'est adressé au personnel, déclarant qu'il cherche lui aussi un accord avec le Pentagone incluant des lignes rouges similaires à celles d'Anthropic. Cela suggère que le « front uni » demandé par les employés pourrait être en train de se former également au niveau exécutif.
Chez Google, la pression interne est dirigée vers Jeff Dean, scientifique en chef de Google DeepMind. Une lettre interne séparée signée par plus de 100 employés de Google l'a spécifiquement exhorté à s'assurer que Google ne sape pas la position d'Anthropic.
La confrontation entre Anthropic et le Pentagone, amplifiée par le soutien des employés de Google et d'OpenAI, représente une étape critique dans l'histoire de la gouvernance technologique. Elle pose une question fondamentale : Qui décide en dernier ressort de la manière dont une IA puissante est utilisée — le gouvernement qui la finance, ou les créateurs qui en comprennent les risques ?
Si le Pentagone utilise avec succès la Loi sur la production de défense pour forcer la main d'Anthropic, cela pourrait établir un précédent selon lequel les intérêts de sécurité nationale l'emportent sur les engagements éthiques du secteur privé. Inversement, si le « front uni » des travailleurs de la technologie tient bon, cela pourrait forcer l'armée à accepter que même dans la guerre, le déploiement de l'intelligence artificielle doit avoir des limites.
Alors que l'échéance du vendredi passe et que l'industrie attend le prochain mouvement du Pentagone, la solidarité manifestée par ces plus de 360 employés rappelle que l'élément humain dans le développement de l'IA reste une force politique puissante.
Ce rapport est basé sur des événements survenant jusqu'au 1er mars 2026.