
Le paysage du développement mondial de l'intelligence artificielle subit un réalignement significatif, souligné par une confrontation à enjeux élevés entre le Département de la Défense des États-Unis et le géant de l'IA Anthropic. Alors que le gouvernement américain exerce une pression croissante sur les entreprises technologiques pour qu'elles intègrent leurs modèles de langage étendus (Large Language Models, LLMs) propriétaires dans les infrastructures militaires et de surveillance, le Royaume-Uni est apparu comme une alternative stratégique, courtisant activement l'entreprise basée à San Francisco pour qu'elle étende son empreinte en Grande-Bretagne.
Ce pivot représente plus qu'une simple stratégie de relocalisation d'entreprise ; il signifie une friction plus profonde et croissante entre l'approche « la sécurité d'abord » des États-Unis et les ambitions réglementaires « favorables à l'innovation » du Royaume-Uni. Pour Anthropic, le fabricant du modèle d'IA largement adopté Claude, la friction est passée de la négociation en salle de conseil au litige fédéral, transformant l'entreprise en un point focal pour le débat plus large sur le rôle des laboratoires d'IA privés dans la sécurité nationale et les limites des garde-fous éthiques.
L'impasse actuelle prend racine au printemps 2026, lorsque le Département de la Défense des États-Unis (DoD) a tenté d'imposer, via des canaux d'approvisionnement, l'intégration de Claude dans des systèmes classifiés pour une utilisation potentielle dans la surveillance autonome et l'identification de cibles mortelles. Anthropic, adhérant systématiquement à sa « Politique de mise à l'échelle responsable » interne, aurait refusé ces demandes. La direction de l'entreprise a fait valoir que ses modèles n'étaient pas conçus pour — ni éthiquement alignés avec — la prise de décision létale ou la surveillance domestique de masse.
En réponse, le gouvernement américain a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement de la sécurité nationale », une manœuvre qui a effectivement interdit aux entrepreneurs de la défense d'utiliser les services de l'entreprise. Cette désignation a déclenché une réaction en chaîne rapide et juridiquement complexe. Anthropic a déposé une plainte contestant la mise sur liste noire, arguant que le gouvernement instrumentalisait la politique d'approvisionnement pour punir une entité privée pour le maintien de ses normes éthiques. Bien qu'un juge fédéral ait accordé un sursis temporaire à l'entreprise, la tension sous-jacente reste non résolue, jetant une ombre sur la relation future d'Anthropic avec les contrats de défense américains.
Pendant que Washington pèse la nécessité d'un contrôle total sur son infrastructure d'IA, Londres adopte une approche nettement différente. Le gouvernement britannique, dirigé par le Département de la Science, de l'Innovation et de la Technologie (DSIT), a commencé à élaborer un ensemble complet de mesures incitatives conçues pour attirer les opérations d'Anthropic de l'autre côté de l'Atlantique.
Cette ouverture est profondément intégrée dans le « Plan d'action pour les opportunités de l'IA (AI Opportunities Action Plan) » plus large du Royaume-Uni, qui vise à propulser la Grande-Bretagne au premier plan de l'économie mondiale de l'IA en offrant un environnement réglementaire plus stable, proportionné et pro-innovation que la loi sur l'IA de l'UE plus rigide ou le paysage américain actuel instable.
Les représentants du gouvernement, avec le soutien du bureau du Premier ministre Keir Starmer, ont esquissé plusieurs propositions clés qui seront présentées au PDG d'Anthropic Dario Amodei lors de sa prochaine visite fin mai. Ces incitations comprennent :
La divergence entre les approches américaine et britannique crée un environnement distinct pour les laboratoires d'IA, comme résumé dans le tableau ci-dessous.
| Facteur stratégique | Environnement des États-Unis | Environnement du Royaume-Uni |
|---|---|---|
| Focus réglementaire | Accent mis sur une conformité stricte et des restrictions de sécurité centrées sur la défense. | Approche équilibrée privilégiant l'IA éthique et la croissance spécifique au secteur. |
| Position du gouvernement | Pression directe pour intégrer l'IA dans les flux de travail militaires et de surveillance. | Sollicitation active, offrant des visas simplifiés et un soutien aux infrastructures. |
| Accès au marché | Accès à des contrats de défense massifs, mais avec des contraintes opérationnelles importantes. | Accès à un marché en pleine croissance et favorable à l'innovation avec moins de frictions d'approvisionnement héritées. |
| Vision à long terme | Priorité à l'IA en tant qu'outil de sécurité nationale et de dominance géopolitique. | Vise à créer un hub mondial pour un développement d'IA responsable et commercialement viable. |
Le recrutement agressif d'Anthropic par le Royaume-Uni est symptomatique d'un changement plus large dans la manière dont les États souverains perçoivent l'IA. Pour la Grande-Bretagne, attirer une entreprise de l'envergure d'Anthropic est un élément clé de sa stratégie pour construire une souveraineté nationale en matière d'IA et réduire la dépendance vis-à-vis d'une source unique et politiquement instable de puissance technologique. En positionnant Londres comme un sanctuaire pour les entreprises qui privilégient à la fois les performances de pointe et la gouvernance éthique, le Royaume-Uni espère établir une « troisième voie » dans la course mondiale à l'IA — une voie qui évite les applications extrêmes de surveillance favorisées par certains aux États-Unis et la réglementation musclée actuellement privilégiée dans l'Union européenne.
Cependant, la voie à suivre n'est pas sans risque. Pour Anthropic, s'installer dans une juridiction dotée de son propre ensemble unique de réglementations et d'attentes culturelles pose ses propres défis. De plus, l'entreprise doit continuer à équilibrer son engagement envers la réglementation de l'IA (AI regulation) et la sécurité avec la nécessité de rivaliser avec des rivaux bien financés comme OpenAI, Google et Meta, qui se disputent tous la domination dans l'espace de l'IA d'entreprise.
Alors que le PDG Dario Amodei prépare son voyage à Londres, l'industrie technologique mondiale observera de près. Cette réunion pourrait servir de moment charnière, signalant si les entreprises d'IA les plus avancées au monde peuvent diversifier avec succès leurs opérations pour échapper aux contraintes des mandats de défense d'un seul État-nation, ou si l'attraction géopolitique de la « sécurité nationale » est trop forte pour que même les laboratoires les plus indépendants puissent s'y soustraire.
En fin de compte, cette saga souligne que Claude et d'autres LLMs avancés ne sont plus seulement des produits logiciels ; ils sont devenus des actifs critiques dans la compétition géopolitique du 21e siècle. L'issue de la confrontation Anthropic-DoD — et le succès ou l'échec des efforts de séduction du Royaume-Uni — créera probablement un précédent sur la manière dont la prochaine décennie de développement de l'IA sera gouvernée et déployée.