
Dans un développement qui souligne la relation de plus en plus complexe entre les entreprises d'intelligence artificielle et les intérêts gouvernementaux, le chatbot Claude d'Anthropic a bondi à la deuxième position du classement des applications gratuites de l'App Store américain. Cette ascension fulgurante — survenue au cours du week-end du 28 février 2026 — intervient paradoxalement à la suite d'un conflit sévère avec le Pentagone et d'une directive consécutive de la Maison Blanche interdisant aux agences fédérales d'utiliser cette technologie.
Cette poussée place Claude immédiatement derrière ChatGPT d'OpenAI et devant Gemini de Google, signalant un changement dans le sentiment des consommateurs où l'éthique d'entreprise et la résistance à la pression de l'État pourraient fonctionner comme un moteur de marketing puissant, bien qu'atypique. Pour les observateurs du secteur, ce moment représente une étude de cas pivot sur l'effet Streisand (Streisand Effect), où les tentatives de suppression ou de marginalisation d'une plateforme finissent par amplifier sa visibilité et son attrait.
Le catalyseur de cette perturbation du marché a été l'échec de négociations à enjeux élevés entre Anthropic et le Département de la Défense (DoD). Des sources proches du dossier confirment que le Pentagone avait cherché à intégrer les modèles de pointe (frontier models) d'Anthropic dans les flux de travail de la défense avec l'exigence de lever certains « garde-fous de sécurité » (safety guardrails). Plus précisément, les responsables de la défense auraient exigé la capacité d'utiliser l'IA pour « toutes les fins licites », une catégorisation large qui, selon la direction d'Anthropic, craignait d'ouvrir la porte à une surveillance domestique de masse et à l'alimentation de systèmes d'armes létales entièrement autonomes.
Le PDG d'Anthropic, Dario Amodei, a publiquement rejeté ces conditions, déclarant que l'entreprise ne pouvait pas « en toute conscience » accéder à des demandes qui passeraient outre leur constitution de l'IA (AI constitution) et leurs protocoles de sécurité. La réponse de Washington a été rapide et punitive. Dès vendredi, l'administration a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement » (supply chain risk) — une classification typiquement réservée aux adversaires étrangers ou aux fournisseurs compromis — et a ordonné la cessation de tous les contrats fédéraux avec la startup.
Alors qu'une telle désignation paralyserait traditionnellement un entrepreneur de la défense, la valorisation principale d'Anthropic repose sur ses logiciels pour particuliers et entreprises. La nature publique du différend, caractérisée par la critique du président Trump qualifiant la direction de l'entreprise de « moralisatrice », semble avoir galvanisé une base d'utilisateurs concernés par la vie privée et la militarisation incontrôlée de l'intelligence artificielle.
Le pic de téléchargements qui a suivi suggère qu'une partie importante du grand public ne voit pas le refus d'Anthropic comme de l'insubordination, mais comme une preuve de fiabilité. À une époque où les préoccupations concernant la confidentialité des données sont primordiales, le récit d'une entreprise d'IA refusant des contrats gouvernementaux lucratifs pour protéger des limites éthiques a trouvé un écho profond.
Les données analytiques de Sensor Tower indiquent que Claude gravitait juste en dehors du top 20 des applications au début du mois de février. Cependant, suite à l'annonce de l'interdiction et aux échanges télévisés entre le Pentagone et les dirigeants d'Anthropic, les téléchargements ont accéléré de plus de 300 % en une période de 48 heures.
Ce phénomène soulève des questions critiques pour les modèles économiques de l'industrie de l'IA. Historiquement, l'« alignement » a été discuté en termes techniques concernant le comportement des modèles. Cet événement recadre l'alignement comme un actif de marque — s'aligner sur les valeurs des utilisateurs contre l'excès de pouvoir perçu de l'État. Les utilisateurs votent avec leur espace de stockage, choisissant de fait l'IA « dissidente » face à des concurrents ayant adopté une approche plus docile envers le partenariat gouvernemental.
Le contraste avec le principal rival d'Anthropic, OpenAI, ne pourrait être plus frappant. Quelques heures après que la Maison Blanche a émis sa directive contre Anthropic, des rapports ont fait surface indiquant qu'OpenAI avait finalisé un nouvel accord avec le Pentagone pour fournir des capacités d'IA pour les réseaux militaires classifiés.
Cette divergence a créé une bifurcation claire sur le marché :
Bien qu'OpenAI conserve la première place de l'App Store, probablement en raison de son avantage de premier arrivant et de sa base d'utilisateurs massive existante, la proximité soudaine de Claude suggère que le segment de marché de l'« IA éthique » est bien plus vaste qu'estimé précédemment.
Le classement actuel des trois principales applications d'IA révèle la dynamique concurrentielle en jeu. Le tableau suivant résume le statut des principaux chatbots d'IA sur l'App Store américain au 1er mars 2026.
Classement des IA sur l'App Store (Classements gratuits États-Unis)
| Rang | Nom de l'application | Contexte clé et moteurs récents |
|---|---|---|
| 1 | ChatGPT (OpenAI) | Conserve la tête du marché ; a récemment obtenu des contrats étendus avec le DoD pour le déploiement sur réseaux classifiés. |
| 2 | Claude (Anthropic) | A bondi depuis le Top 20 ; propulsé par la désignation de « risque pour la chaîne d'approvisionnement » et le refus public des clauses de surveillance. |
| 3 | Google Gemini | Maintient une croissance régulière ; tire parti d'une intégration profonde avec les écosystèmes Android et Workspace. |
La « poussée de Claude » complique le récit pour les régulateurs et les décideurs politiques. La tentative de l'administration d'utiliser des tactiques d'exclusion du marché (la désignation de risque pour la chaîne d'approvisionnement) pour forcer la conformité s'est retournée contre elle dans le domaine de la consommation. Cela limite le levier du gouvernement ; si le fait de bannir une entreprise la rend plus populaire, l'État perd son principal bâton non réglementaire.
De plus, cette impasse souligne la fragilité de l'ère actuelle des « engagements volontaires » en matière de sécurité de l'IA. Le refus d'Anthropic prouve que les garde-fous volontaires n'ont de sens que tant qu'ils n'entrent pas en conflit avec les exigences d'un client puissant. En tenant sa position, Anthropic a établi un précédent selon lequel les engagements de sécurité sont des contraintes contraignantes, et non de simples arguments marketing.
Les experts juridiques prédisent qu'Anthropic contestera probablement la désignation de « risque pour la chaîne d'approvisionnement » devant les tribunaux, arguant que le refus de construire des armes autonomes ne constitue pas un risque pour la sécurité. L'issue d'une telle bataille juridique définirait les droits des entreprises technologiques à refuser des travaux gouvernementaux pour des motifs éthiques sans faire face à une mise sur liste noire punitive.
Alors que la poussière retombe sur cette semaine chaotique, le message du marché est sans ambiguïté : l'éthique est un différenciateur concurrentiel. Le pari d'Anthropic de prioriser sa constitution de sécurité sur les revenus du Pentagone a, pour l'instant, porté ses fruits en termes d'attention et de confiance des utilisateurs. Reste à savoir si cet élan pourra être maintenu au-delà du cycle médiatique immédiat, mais l'ascension de Claude à la 2e place sert de signal puissant indiquant que le public observe de près comment les entreprises d'IA naviguent dans les complexités morales de la décennie à venir.