
Dans un revirement de situation stupéfiant qui souligne l'importance croissante de l'alignement éthique dans le secteur de l'intelligence artificielle, Claude d'Anthropic a enregistré une augmentation historique de l'adoption par les utilisateurs. Au 6 mars 2026, les rapports confirment que la plateforme enregistre plus d'un million de nouvelles inscriptions quotidiennes, propulsant l'application Claude à la première place de l'Apple App Store et du Google Play Store aux États-Unis. Cette ascension fulgurante coïncide directement avec une retombée publique croissante concernant les contrats militaires, signalant un pivot potentiel dans la manière dont les consommateurs évaluent et sélectionnent leurs outils d'IA primaires.
Le changement soudain de la dynamique du marché n'est pas seulement le reflet de mises à jour de fonctionnalités ou de mesures de performance, mais semble profondément enraciné dans un contexte sociopolitique plus large. Alors que ChatGPT d'OpenAI a longtemps détenu le monopole de la domination dans l'espace de l'IA générative (Generative AI), les développements récents impliquant le Département de la Défense des États-Unis (DoD) ont catalysé une migration d'utilisateurs à la recherche d'alternatives s'alignant plus étroitement sur des cadres éthiques spécifiques.
Le moteur de cette croissance sans précédent est la « débâcle du contrat du Pentagone », une série d'événements qui a tracé un contraste frappant entre les principaux acteurs de l'industrie. La controverse a commencé lorsque le DoD a cherché des partenariats pour déployer des modèles d'IA avancés pour des applications classifiées.
Anthropic, se distinguant par une approche d'IA constitutionnelle (Constitutional AI), aurait refusé d'accéder aux conditions du Pentagone sans la mise en œuvre de « garde-fous stricts ». L'entreprise a exprimé des inquiétudes concernant l'utilisation potentielle de sa technologie dans des systèmes d'armes autonomes et de surveillance de masse — des lignes rouges qu'elle n'était pas prête à franchir. En réponse, le DoD a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement » (supply chain risk), un label que l'entreprise a l'intention de contester en justice.
Inversement, OpenAI a officiellement conclu un partenariat avec le DoD. Bien qu'OpenAI ait défendu fermement l'accord, affirmant que ses mesures de sécurité sont satisfaisantes et que ses modèles ne seront pas utilisés pour des armes autonomes létales, cette décision a néanmoins suscité un contrecoup important.
L'effet de « retombée » :
L'impact statistique de cette impasse éthique est indéniable. Les données des cabinets d'intelligence d'applications et les propres rapports internes d'Anthropic brossent le tableau d'un remaniement rapide de la hiérarchie de l'IA.
Le tableau suivant présente les mesures clés définissant ce changement actuel du marché :
Mesures de croissance comparative : fin du T1 2026
---|---|----
Mesure|Anthropic (Claude)|OpenAI (ChatGPT)
Nouvelles inscriptions quotidiennes|> 1 000 000
Accélération rapide début mars|Stables / Plafonnées
Maintien d'une base élevée mais vitesse de croissance plus faible
Classement App Store (US)|#1 (Apps gratuites)
A dépassé tous ses concurrents en mars|#2 (Apps gratuites)
Délogé de la première place
Croissance des téléchargements (S/S)|+55 %
Portée par le cycle d'actualités et le plaidoyer viral|Stable
Rétention élevée, pic d'acquisition de nouveaux utilisateurs plus faible
Base d'utilisateurs actifs|En expansion rapide
Hausse des utilisateurs actifs quotidiens (DAU)|~900 millions par semaine
Reste le géant historique
Tendance de la perception publique|« Alternative éthique »
Scores de sentiment élevés sur la vie privée|« Établissement / Défense »
Sentiment mitigé dû aux liens avec le DoD
Alors qu'OpenAI reste le mastodonte avec environ 900 millions d'utilisateurs actifs hebdomadaires à la fin de février 2026, la vitesse de croissance de Claude suggère une capture significative du marché des « nouveaux utilisateurs » et une part notable du trafic de « transfert ». L'augmentation de 55 % des téléchargements d'une semaine sur l'autre pour Claude est un chiffre rarement vu dans les catégories d'applications établies, indiquant un événement viral plutôt qu'une croissance organique.
La décision du Département de la Défense de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » visait à signaler une mise en garde aux contractants gouvernementaux et peut-être à isoler l'entreprise. Cependant, dans le secteur de la consommation, ce label a eu l'effet inverse. Il a effectivement marqué Claude comme le choix « rebelle » — l'IA qui était trop éthique pour la normalisation militaire.
Ce phénomène n'est pas sans précédent dans le monde de la technologie, où les frictions avec les appareils de surveillance gouvernementaux se traduisent souvent par une crédibilité accrue auprès des défenseurs de la vie privée. Cependant, l'échelle à laquelle cela se produit dans le secteur de l'IA est nouvelle. Les utilisateurs ne téléchargent pas seulement une application de messagerie cryptée ; ils choisissent leur partenaire intellectuel principal — l'IA qu'ils utiliseront pour rédiger des e-mails, coder des logiciels et générer des idées.
Il est important de noter que l'alignement éthique seul soutient rarement un produit si l'utilité fait défaut. La capacité de Claude à capitaliser sur ce moment est étayée par les performances robustes de ses derniers modèles, probablement les séries Claude 3.5 ou Claude 4 (impliquées contextuellement par la chronologie de 2026).
Les utilisateurs migrant de ChatGPT découvrent une plateforme qui est non seulement « plus propre » dans ses enchevêtrements d'entreprise, mais aussi hautement compétitive dans les tâches de raisonnement, de codage et d'écriture créative. La « chaleur » et la « pilotabilité » de Claude ont souvent été citées comme des différenciateurs clés, et ces fonctionnalités sont maintenant découvertes par un public de masse qui, autrement, serait resté dans l'écosystème OpenAI par inertie.
Les événements de mars 2026 servent d'étude de cas critique pour l'ensemble de l'industrie de l'intelligence artificielle. Ils démontrent que :
Alors qu'Anthropic se prépare à contester la désignation du DoD devant les tribunaux, le tribunal de l'opinion publique semble avoir déjà rendu un verdict préliminaire. Pour l'instant, le « risque pour la chaîne d'approvisionnement » est le favori du marché de la consommation, et le compteur d'inscriptions quotidiennes continue de grimper, remodelant le paysage de l'intelligence artificielle un utilisateur à la fois.