
L'atmosphère au Moscone Center lors de la RSA Conference 2026 était électrique, dominée par un thème unique et omniprésent : la transition des assistants d'IA générative (Generative AI) passifs vers l'« IA agentique (Agentic AI) » autonome. Alors que les entreprises passent de la simple génération de texte au déploiement d'agents d'IA sophistiqués capables d'exécuter des flux de travail complexes, l'industrie a atteint un point d'inflexion critique. Le défi central, comme l'a souligné une vague d'annonces cette semaine, n'est plus seulement de sécuriser les données — il s'agit de sécuriser l'identité de la main-d'œuvre numérique elle-même.
Au cœur du discours de la RSAC 2026, cinq géants de la sécurité — CrowdStrike, Cisco, Palo Alto Networks, Microsoft et Cato CTRL — ont dévoilé simultanément de nouveaux frameworks d'identité pour les agents d'IA. Ces initiatives sont conçues pour catégoriser, authentifier et autoriser les identités non humaines, une évolution nécessaire dans un environnement Zero Trust. Cependant, derrière les communiqués de presse léchés et les feuilles de route ambitieuses, une réalité plus sombre a émergé. Des analyses récentes après incidents menées auprès d'organisations du Fortune 50 révèlent que, malgré ces nouveaux frameworks, trois failles de sécurité critiques persistent, laissant ces agents automatisés vulnérables à une exploitation sophistiquée.
Pendant des années, la gestion de l'identité s'est concentrée sur « qui » accède au système, en supposant généralement un utilisateur humain. Avec l'essor de l' IA agentique, le paradigme a changé. Nous traitons désormais avec des entités qui possèdent l'autonomie nécessaire pour interroger des bases de données, initier des appels d'API et modifier les configurations système sans intervention humaine directe.
La réponse de l'industrie à la RSAC 2026 reflète cette urgence. L'objectif des frameworks nouvellement lancés est de traiter chaque agent d'IA comme une identité distincte, dotée de son propre ensemble d'identifiants, de périmètres d'autorité et de profils comportementaux. Cette approche cherche à s'éloigner des « comptes système » qui sont souvent sur-privilégiés et difficiles à auditer, pour se diriger vers un modèle granulaire centré sur l'identité.
Cependant, la vitesse pure du développement a dépassé la maturité de ces frameworks. Alors que CrowdStrike et Cisco ont mis l'accent sur la télémétrie des points de terminaison et du réseau comme colonne vertébrale de leurs modèles de confiance d'identité, et que Microsoft s'est appuyé sur son intégration profonde avec Entra ID, le problème fondamental du comportement de l'agent — ce que l'agent fait une fois authentifié — reste le principal point de discorde.
Chacun des acteurs majeurs a abordé le problème sous l'angle de ses compétences clés. Le tableau suivant fournit un aperçu de l'orientation stratégique de ces organisations.
| Fournisseur | Stratégie principale | Objectif clé |
|---|---|---|
| CrowdStrike | Télémétrie des points de terminaison | Surveillance du comportement des agents via EDR |
| Cisco | Maillage réseau (Network Fabric) | Contrôles d'accès Zero Trust pour les agents |
| Palo Alto Networks | Plateforme intégrée | Application de politiques contextuelles |
| Microsoft | Écosystème d'identité | Intégration Entra ID pour les identités d'IA |
| Cato CTRL | Framework SASE | Accès sécurisé pour les agents distribués |
Comme indiqué ci-dessus, l'accent est largement mis sur l'établissement de l'identité de l'agent. Pourtant, les analystes de l'industrie chez Creati.ai notent que l'établissement de l'identité n'est que la première étape. La lacune réside dans la gestion de la nature dynamique de ces agents une fois qu'ils entrent dans le réseau de l'entreprise.
Malgré les avancées technologiques présentées à la RSAC 2026, les données réelles issues d'incidents de sécurité récents dans des entreprises du Fortune 50 soulignent que ces frameworks ne parviennent pas à traiter trois vulnérabilités fondamentales. Ces lacunes représentent les « angles morts » de la sécurité moderne de l'IA agentique.
La plupart des frameworks actuels reposent sur des définitions de politiques statiques. Dans un environnement statique, un agent se voit attribuer un rôle fixe — par exemple, « Accès en lecture seule à la base de données ». Cependant, la force des agents d'IA réside dans leur capacité à raisonner et à s'adapter. Lorsqu'un agent est chargé d'un objectif complexe, il peut tenter d'intensifier ses propres opérations, s'engageant ainsi dans une « dérive du périmètre ».
Les frameworks d'identité actuels manquent de logique pour réévaluer dynamiquement le périmètre d'autorisation d'un agent en temps réel en fonction de l'intention d'un prompt spécifique. Si un agent est compromis ou hallucine, il peut exploiter son identité assignée pour effectuer des actions pour lesquelles il n'a jamais été explicitement conçu, simplement parce que la limite de permission était trop large et définie au début de la session plutôt qu'à l' exécution de la tâche.
Dans la sécurité informatique traditionnelle, les journaux sont linéaires et déterministes. Si un utilisateur supprime un fichier, il existe une chaîne de responsabilité claire : ID utilisateur -> Action -> Horodatage. Les agents d'IA, cependant, opèrent de manière non déterministe. Ils enchaînent plusieurs étapes, chemins de raisonnement et appels d'API pour atteindre un objectif.
La deuxième faille critique identifiée est l'incapacité des frameworks d'identité actuels à fournir une piste lisible par l'homme et auditable expliquant pourquoi un agent a pris une décision. Lorsqu'un incident se produit, les équipes forensiques se retrouvent avec une pile massive de journaux d'API non structurés mais aucune visibilité sur le « processus de réflexion » interne de l'agent. Cela rend presque impossible de déterminer si une action était le résultat d'une injection de prompt malveillante, d'une mauvaise configuration ou d'un chemin de raisonnement authentique (bien que défectueux).
Enfin, il y a la question de la communication entre agents. Les architectures d'entreprise modernes s'appuient de plus en plus sur des « systèmes multi-agents », où un agent d'orchestration gère plusieurs sous-agents spécialisés. Les frameworks d'identité dévoilés à la RSAC 2026 traitent largement les agents comme des entités cloisonnées.
Cela laisse une vulnérabilité significative : l'empoisonnement de contexte. Si un agent à faibles privilèges est compromis, il peut transmettre un contexte « empoisonné » ou des instructions malveillantes à un agent à privilèges plus élevés au sein du même flux de travail. Parce que ces frameworks manquent de validation d'identité entre agents — où un agent vérifie le niveau de confiance d'un autre avant d'accepter une entrée — la sécurité de toute la chaîne n'est aussi forte que son maillon le plus faible.
Les annonces de fournisseurs tels que Cisco et Microsoft sont sans aucun doute un pas dans la bonne direction. En standardisant le concept d'identité non humaine, ils jettent les bases de systèmes autonomes plus sécurisés. Cependant, les organisations ne doivent pas confondre ces frameworks avec des solutions de sécurité de type « installer et oublier ».
Pour combler ces lacunes, les entreprises doivent adopter une stratégie de défense multicouche :
La RSAC 2026 a signalé avec succès que la sécurité de l'IA entre dans une phase nouvelle et plus mature. L'accent mis sur l'identité des agents d'IA est un développement nécessaire et bienvenu, fournissant l'intégrité structurelle requise pour gouverner la prochaine génération de charges de travail autonomes.
Cependant, comme le prouvent les expériences des entreprises du Fortune 50, l'identité n'est pas une solution miracle. Alors que CrowdStrike, Cisco et leurs pairs ont construit les portes de cette nouvelle ère, les verrous — spécifiquement ceux régissant l'autorisation dynamique, l'auditabilité et la confiance entre agents — sont encore en cours de forgeage. Pour les lecteurs de Creati.ai et les dirigeants d'entreprise, la conclusion est claire : adoptez ces nouveaux frameworks d'identité, mais donnez la priorité à la sécurité opérationnelle des agents eux-mêmes. L'ère de l'IA agentique est là, et notre posture de sécurité doit évoluer aussi rapidement que les modèles que nous déployons.