
La récente démonstration réalisée par les chercheurs en cybersécurité (Cybersecurity) de CodeWall a envoyé un message glaçant au secteur de l'IA d'entreprise (Enterprise AI). Un agent IA offensif autonome — agissant sans intervention humaine, identifiants ou connaissance interne préalable — a compromis avec succès la plateforme interne d'IA générative (Generative AI) de McKinsey, nommée « Lilli », en moins de deux heures. Alors que l'industrie technologique s'est hyper-focalisée sur les risques existentiels des « robots tueurs » ou des attaques complexes par injection de prompt (Prompt Injection), cet incident rappelle brutalement que les menaces les plus dangereuses pour l'infrastructure d'IA proviennent souvent de failles de sécurité fondamentales qui existent depuis des décennies.
Cet événement n'est pas seulement une violation de données ; c'est une preuve de concept pour la nouvelle ère de la cyber-guerre. Alors que les organisations se précipitent pour intégrer l'IA générative dans leurs flux de travail, elles étendent par inadvertance leurs surfaces d'attaque, créant des environnements où les agents autonomes peuvent identifier, exploiter et pénétrer les systèmes à la vitesse de la machine. Pour McKinsey, une entreprise bâtie sur les piliers de la confidentialité des données et du secret stratégique, cette compromission d'une plateforme interne — utilisée par plus de 40 000 employés — illustre le besoin urgent d'un changement de paradigme dans la manière dont nous sécurisons l'IA d'entreprise.
La violation, menée par CodeWall, a utilisé un agent autonome conçu pour identifier les vulnérabilités dans la documentation API publique. Contrairement aux attaquants humains qui pourraient passer des jours ou des semaines à effectuer une reconnaissance, l'agent de CodeWall a opéré à la vitesse du calcul. En 120 minutes, l'agent a obtenu un accès complet en lecture et en écriture à la base de données de production supportant Lilli.
L'agent ne s'est pas appuyé sur des exploits exotiques spécifiques à l'IA. Au lieu de cela, il a méthodiquement cartographié l'infrastructure et identifié une documentation technique exposée répertoriant plus de 200 points de terminaison (endpoints). Parmi ceux-ci, 22 points de terminaison ne nécessitaient aucune authentification. En itérant à travers ces derniers, l'agent a découvert une vulnérabilité classique d'injection SQL (SQL Injection).
L'efficacité de l'agent a été amplifiée par sa nature autonome. Il a pu :
L'aspect peut-être le plus surprenant du cas McKinsey est le vecteur d'attaque lui-même : l'injection SQL. Il s'agit d'une classe de vulnérabilité documentée depuis les années 1990. Le fait qu'une plateforme d'IA générative de pointe puisse être la proie d'une vulnérabilité web « basique » met en lumière un décalage entre le développement des capacités d'IA et la maturité de l'infrastructure de sécurité qui les entoure.
L'incident souligne une leçon cruciale pour les développeurs : les systèmes d'IA sont d'abord des systèmes logiciels. Lorsque les développeurs construisent des wrappers autour des grands modèles de langage (LLM - Large Language Models) pour les connecter à des bases de données, ils construisent de fait de nouvelles applications web. Si la couche API connectant le LLM à la base de données ne parvient pas à assainir les entrées — comme ce fut le cas avec Lilli, où des noms de champs JSON étaient injectés directement dans les requêtes — les capacités de raisonnement avancé de l'IA deviennent secondaires par rapport aux vulnérabilités du serveur hôte.
Le tableau suivant met en contraste les défis de sécurité traditionnels auxquels sont confrontées les applications web standards avec le profil de risque accru des plateformes modernes intégrées à l'IA.
| Type de vulnérabilité | Mécanisme d'attaque | Niveau de risque pour les plateformes d'IA |
|---|---|---|
| Injection SQL | Injection de code malveillant dans les requêtes de base de données via des entrées non validées | Élevé Accès direct aux données RAG et aux prompts système |
| Injection de prompt | Manipulation des instructions du LLM pour contourner les garde-fous | Critique Peut mener à l'exfiltration de données ou à l'exécution de code malveillant |
| Accès API non autorisé | Exploitation de points de terminaison non authentifiés dans les microservices | Élevé Fournit le point d'entrée pour les agents automatisés |
| Inversion de modèle | Reconstruction des données d'entraînement à partir des sorties du modèle | Moyen Risque d'exposition d'informations sensibles sur les clients |
Bien que la violation de McKinsey ait été un exercice de Red Teaming (Red Teaming) contrôlé, elle préfigure un avenir où les agents autonomes seront utilisés par des acteurs malveillants pour intensifier les attaques. La capacité d'un agent à choisir de manière autonome une cible, à rechercher sa documentation, à identifier un point de terminaison vulnérable et à exécuter un cycle d'exploitation est un multiplicateur de force.
Traditionnellement, un pirate informatique humain pourrait choisir de passer à autre chose si une cible s'avère trop résiliente ou chronophage. Un agent IA ne souffre pas de telles contraintes. Il peut travailler en continu, 24h/24 et 7j/7, sur plusieurs cibles simultanément, ce qui en fait un outil essentiel pour la prochaine génération de cybermenaces.
Pour les entreprises, la conclusion est claire : l'« IA fantôme » (Shadow AI) et les outils internes déployés rapidement peuvent devenir des passifs s'ils ne sont pas traités avec les mêmes normes de sécurité rigoureuses que les systèmes financiers ou clients de base.
L'incident chez McKinsey n'est pas le signe que l'IA est intrinsèquement peu sûre, mais plutôt que l'industrie de la sécurité est en train de rattraper son retard sur la vitesse de déploiement de l'IA. Alors que ces plateformes deviennent le « système nerveux » des grands cabinets de conseil et des entreprises, la responsabilité de leur sécurisation passe du département informatique au conseil d'administration.
Le fait que McKinsey ait mis la plateforme hors ligne et corrigé les vulnérabilités en quelques heures témoigne de l'importance d'une politique de divulgation proactive et robuste et d'une équipe de réponse de sécurité agile. Cependant, à mesure que les agents IA deviennent plus sophistiqués, la fenêtre de temps disponible pour une réponse humaine va se réduire. L'objectif ultime pour l'entreprise sera de construire des plateformes d'IA « sécurisées dès la conception » (Secure by Design), où l'architecture elle-même empêche le type d'exploitation automatisée à la vitesse de la machine qui a défini cet événement récent.
Creati.ai continue de suivre ces développements de près. L'ère de la cybersécurité humain contre humain cède rapidement la place à un avenir d'IA contre IA, et pour les entreprises, cela signifie que les outils défensifs d'hier ne suffisent plus à sécuriser les modèles économiques de demain.