
Dans une escalade spectaculaire des tensions entre la Silicon Valley et Washington, une coalition extraordinaire d'éminents chercheurs en intelligence artificielle (AI) s'est unie pour défier le gouvernement des États-Unis. Plus de 30 employés des géants de l'IA OpenAI et Google DeepMind ont déposé un mémoire d'amicus curiae (Amicus Brief) devant un tribunal fédéral, apportant leur soutien à la firme rivale Anthropic dans son procès à enjeux élevés contre le Département de la Défense (DoD). Cette rare solidarité inter-entreprises souligne un moment charnière dans la gouvernance de l'IA, reflétant les inquiétudes profondes de l'industrie concernant l'excès de réglementation, les mandats de sécurité nationale et le déploiement éthique des systèmes d'IA de pointe.
La confrontation juridique découle d'une décision controversée de l'administration Trump fin février 2026 de désigner officiellement Anthropic comme un "risque lié à la chaîne d'approvisionnement (Supply-Chain Risk) pour la sécurité nationale". Historiquement, cette classification sévère a été strictement réservée aux adversaires étrangers et aux entreprises internationales ayant des liens douteux avec des États rivaux, comme le géant technologique chinois Huawei. L'application d'une étiquette aussi handicapante à une entreprise nationale d'IA basée à San Francisco — fondée par d'anciens cadres d'OpenAI et soutenue par des milliards de dollars de capitaux américains — représente un changement de paradigme radical et inattendu dans la manière dont le gouvernement gère les achats technologiques.
Les sanctions contre Anthropic sont entrées en vigueur immédiatement après l'échec total des négociations contractuelles avec le Pentagone. Selon les documents officiels du tribunal, Anthropic a fermement refusé de renoncer à ses politiques d'utilisation strictes, interdisant spécifiquement que ses modèles d'IA Claude soient utilisés pour deux applications militaires faisant l'objet de vifs débats :
Cette désignation paralyse gravement la capacité opérationnelle d'Anthropic dans le secteur public, interdisant de fait aux agences gouvernementales et aux sous-traitants de la défense d'intégrer la technologie d'Anthropic dans leurs flux de travail. En réponse à ce qu'elle considère comme une menace existentielle, Anthropic a déposé une plainte complète de 48 pages devant le tribunal fédéral de San Francisco, demandant une ordonnance de restriction temporaire pour stopper les sanctions et déclarant la désignation fondamentalement illégale.
Le paysage férocement concurrentiel de l'IA générative (Generative AI) voit habituellement OpenAI, Google et Anthropic engagés dans une course acharnée pour la domination du marché, les contrats d'entreprise et la notoriété auprès des consommateurs. Cependant, la décision sans précédent du Pentagone a catalysé un resserrement rapide des rangs à travers le secteur. Quelques heures seulement après qu'Anthropic a déposé sa plainte, des chercheurs de ses plus grands concurrents ont officiellement soumis un mémoire d'amicus curiae au tribunal pour renforcer la motion d'Anthropic.
Les signataires du mémoire incluent des figures hautement influentes du secteur de l'intelligence artificielle, agissant à titre personnel plutôt qu'en tant que représentants officiels de leur entreprise. Ils sont unis par la conviction commune que les garde-fous de sécurité sont une nécessité, et non un luxe facultatif.
Chiffres clés soutenant le mémoire d'amicus curiae :
| Nom du signataire | Affiliation à l'entreprise | Poste/Rôle notoire |
|---|---|---|
| Jeff Dean | Google DeepMind | Scientifique en chef et responsable de Gemini |
| Zhengdong Wang | Google DeepMind | Chercheur en IA |
| Alexander Matt Turner | Google DeepMind | Chercheur en IA |
| Noah Siegel | Google DeepMind | Chercheur en IA |
| Gabriel Wu | OpenAI | Chercheur en IA |
| Pamela Mishkin | OpenAI | Chercheure en IA |
| Roman Novak | OpenAI | Chercheur en IA |
(Note : Le tableau ci-dessus ne met en évidence qu'une fraction des près de 40 signataires qui ont franchi les clivages corporatifs pour défendre un socle éthique commun.)
Le dépôt juridique des employés présente un argument procédural et éthique convaincant contre les actions musclées du gouvernement. Ils affirment que les modèles d'IA de pointe actuels ne sont pas encore assez fiables ou transparents pour qu'on leur confie des décisions de ciblage létal. De plus, l'intégration d'une IA puissante à de vastes ensembles de données pose des menaces graves pour le tissu de la vie publique et la vie privée.
Le mémoire avertit explicitement le tribunal : "S'il est autorisé à se poursuivre, cet effort visant à punir l'une des principales entreprises américaines d'IA aura sans aucun doute des conséquences pour les État-