
New Delhi — Le paysage mondial de l'intelligence artificielle (Artificial Intelligence, AI) connaît un changement tectonique significatif, et cette fois, l'épicentre est l'Inde. Lors du très attendu AI Impact Summit 2026 qui s'est tenu à New Delhi, les principaux innovateurs technologiques et décideurs politiques du pays ont dévoilé une suite de modèles d'IA locaux, signalant un passage définitif vers une « IA souveraine » (Sovereign AI). Cette poussée concertée est largement saluée comme la poursuite par l'Inde d'un « moment DeepSeek » — une référence à la startup chinoise qui a récemment perturbé le marché mondial avec des modèles performants et rentables ayant défié la domination de la Silicon Valley.
Le sommet a servi de rampe de lancement pour une gamme diversifiée de modèles multilingues optimisés pour les 22 langues officielles de l'Inde, soulignant un abandon stratégique de l'adaptation des modèles occidentaux au profit de la construction de systèmes indigènes à partir de zéro. Avec le soutien du gouvernement et un écosystème de startups en pleine expansion, l'Inde se positionne non seulement comme un consommateur d'IA, mais comme un créateur redoutable d'une intelligence efficace et contextuellement culturelle.
À l'avant-garde de cette vague se trouve Sarvam AI, une startup basée à Bengaluru qui a capté l'attention du sommet avec la sortie de ses derniers grands modèles de langage (Large Language Models, LLM). L'entreprise a introduit deux modèles clés : un modèle de 30 milliards de paramètres conçu pour l'efficacité en périphérie (edge efficiency) et un modèle massif de 105 milliards de paramètres conçu pour le raisonnement complexe et les tâches d'entreprise.
Établissant des parallèles directs avec l'efficacité qui a défini le phénomène « DeepSeek », le modèle 105B de Sarvam utilise une architecture de Mélange d'experts (Mixture-of-Experts, MoE). Cette conception permet au modèle de n'activer qu'une fraction de ses paramètres pour une tâche donnée, réduisant considérablement les coûts d'inférence tout en maintenant des performances élevées.
« Nous ne construisons pas seulement pour l'Inde ; nous construisons depuis l'Inde pour le monde », a déclaré Pratyush Kumar, co-fondateur de Sarvam AI, lors de son discours d'ouverture. « Nos modèles sont entraînés de zéro sur une infrastructure de calcul domestique, garantissant que la souveraineté des données et les nuances culturelles sont intégrées au cœur, et non ajoutées après coup. »
Le modèle le plus large surpasserait les concurrents mondiaux tels que Gemini Flash de Google et le DeepSeek R1 sur plusieurs tests de référence en langues indiennes, en particulier dans les tâches de raisonnement complexe et de codage. Cette réussite valide le modèle d'« innovation frugale » (frugal innovation), démontrant que l'IA de classe mondiale ne nécessite pas strictement les budgets de mille milliards de dollars des géants technologiques américains.
Un thème récurrent tout au long du sommet a été la nécessité critique de vaincre la barrière de la langue. La diversité linguistique de l'Inde — comprenant 22 langues officielles et des milliers de dialectes — a longtemps été une pierre d'achoppement pour les modèles d'IA occidentaux principalement entraînés sur des ensembles de données en anglais.
BharatGen, un consortium soutenu par le gouvernement et dirigé par l'IIT Bombay, a annoncé une étape majeure : l'achèvement de modèles d'IA textuels pour les 22 langues indiennes prévues. Financée dans le cadre de la Mission IndiaAI, cette initiative vise à démocratiser l'accès à la technologie pour la population non anglophone.
« La langue est le véhicule de la culture. Si l'IA ne peut pas parler nos langues, elle ne peut pas servir notre peuple », a remarqué le ministre de l'Union pour l'électronique et l'informatique, soulignant l'investissement de 1,2 milliard de dollars du gouvernement dans la Mission IndiaAI. Cette mission subventionne activement les coûts de calcul GPU pour les startups, créant un terrain fertile pour l'innovation qui donne la priorité aux besoins locaux par rapport aux tendances mondiales.
Alors que Sarvam AI s'est concentré sur les modèles fondamentaux, d'autres acteurs clés ont présenté des avancées sur l'ensemble de la pile matérielle et applicative, créant un écosystème holistique.
Krutrim, l'entreprise d'IA fondée par Bhavish Aggarwal d'Ola, a profité du sommet pour mettre à jour l'industrie sur sa feuille de route matérielle ambitieuse. Au-delà de ses services cloud, Krutrim a confirmé que sa première puce d'IA indigène, Bodhi 1, est en bonne voie pour une sortie en 2026. Conçues spécifiquement pour gérer les charges de travail d'inférence des LLM de pointe, ces puces visent à réduire la dépendance de l'Inde vis-à-vis du matériel importé coûteux de Nvidia.
Krutrim a également annoncé un partenariat pour développer Krutrim 3, un modèle de 700 milliards de paramètres, signalant son intention de rivaliser au plus haut niveau d'échelle de modèle.
Ajoutant à la diversité du paysage des modèles, Two Platforms, dirigée par l'innovateur renommé Pranav Mistry, a présenté SUTRA. Contrairement aux modèles génériques, SUTRA est un modèle d'IA générative multilingue conçu avec une architecture à double transformeur qui sépare l'apprentissage des concepts du traitement du langage. Cette approche unique lui permet de s'adapter efficacement à plus de 50 langues tout en restant très rentable, ce qui en fait un candidat idéal pour une exportation mondiale potentielle vers d'autres marchés non anglophones.
Le sommet a mis en évidence des stratégies distinctes parmi les principales initiatives d'IA indiennes. Le tableau suivant résume les spécifications clés et l'orientation stratégique des principaux modèles dévoilés :
| Modèle / Initiative | Développeur | Caractéristiques clés | Focus stratégique |
|---|---|---|---|
| Sarvam-105B | Sarvam AI | 105 milliards de paramètres, architecture MoE, support de 22 langues | Raisonnement d'entreprise et codage à haute efficacité ; optimisation des coûts de style « DeepSeek » |
| Krutrim Cloud/Chips | Ola (Krutrim) | Silicium personnalisé (Bodhi 1), modèle de 700B prévu | Souveraineté complète du silicium au cloud ; réduction de la dépendance matérielle |
| BharatGen | Consortium IIT Bombay | Support natif pour les 22 langues officielles | Applications du secteur public, gouvernance et éducation dans les dialectes locaux |
| SUTRA | Two Platforms | Architecture à double transformeur, 50+ langues | Marchés multilingues mondiaux ; séparation de la maîtrise des concepts de la maîtrise de la langue |
L'expression « moment DeepSeek » a été au centre de presque toutes les conversations dans les couloirs du sommet. Elle représente plus qu'une simple référence technologique ; elle symbolise un changement dans la psychologie du marché. Tout comme le DeepSeek de la Chine a prouvé que l'efficacité pouvait perturber le monopole des laboratoires américains bien financés, l'Inde parie que son approche d'« IA souveraine » fera de même pour les pays du Sud.
Cependant, des défis subsistent. Bien que l'efficacité économique des modèles comme le 105B de Sarvam soit prometteuse, l'échelle même de l'infrastructure de calcul requise pour entraîner les modèles de « frontière » de la prochaine génération (plus de 10 billions de paramètres) est encore en cours de construction. L'acquisition de milliers de GPU par la Mission IndiaAI est un début, mais cela reste modeste comparé aux clusters exploités par Meta ou Microsoft.
L'India AI Impact Summit 2026 restera probablement dans les mémoires comme le point d'inflexion où l'Inde est passée du statut d'adoptant d'IA à celui d'architecte d'IA. En privilégiant les capacités multilingues et les architectures rentables, les entreprises indiennes se taillent une niche unique que les géants technologiques occidentaux ont largement négligée.
À mesure que ces modèles passent des laboratoires de recherche au déploiement en conditions réelles dans la banque, l'agriculture et la gouvernance, le monde observera. Si l'Inde parvient à mettre à l'échelle ces systèmes multilingues et efficaces, elle n'aura pas seulement son « moment DeepSeek » — elle pourrait réécrire les règles du déploiement de l'IA dans les marchés diversifiés et sensibles aux coûts du futur.