
Dans un moment charnière pour l'intelligence artificielle mobile, Google a officiellement annoncé que son assistant IA Gemini peut désormais exécuter de manière autonome des tâches complexes à plusieurs étapes sur les appareils Android. Cette mise à jour majeure, révélée le 25 février 2026, marque la transition de l'IA mobile de la recherche passive d'informations vers une participation « agentique » (agentic) active. Les nouvelles capacités, qui incluent la gestion de bout en bout des commandes de livraison de nourriture et des services de VTC, feront leurs débuts exclusivement en avant-première sur la nouvelle série Samsung Galaxy S26 et la gamme Pixel 10 de Google, avant un déploiement plus large.
Ce développement représente l'aboutissement des initiatives « Project Jarvis » et « Project Astra » de Google, concrétisant enfin la promesse d'un agent numérique véritablement utile et proactif dans la poche des consommateurs. En exploitant un traitement visuel avancé et une intégration profonde au système d'exploitation, Gemini peut désormais naviguer dans les interfaces d'applications tierces de la même manière qu'un utilisateur humain, comblant ainsi efficacement le fossé entre l'intention et l'action.
Pendant des années, l'industrie a promis une IA qui « fait des choses » plutôt que de simplement « savoir des choses ». Avec cette mise à jour, Google tient cette promesse. La nouvelle fonctionnalité permet aux utilisateurs d'émettre des commandes globales de haut niveau telles que « Commande mon dîner habituel du vendredi soir sur DoorDash » ou « Réserve un trajet vers l'aéroport pour deux personnes ».
Au lieu de simplement ouvrir l'application ou de fournir un lien, Gemini effectue désormais les actions suivantes de manière autonome :
Cette philosophie de conception avec « l'humain dans la boucle » (Human-in-the-loop) répond à la préoccupation majeure concernant l' IA agentique (agentic AI) : la perte de contrôle. En prenant en charge la navigation fastidieuse tout en laissant la décision exécutive finale à l'utilisateur, Google trouve un équilibre entre commodité et sécurité.
Le partenariat stratégique entre Google et Samsung continue de s'approfondir, la série Galaxy S26 servant de vecteur de lancement principal pour ces fonctionnalités avancées. Lors de l'événement Samsung Unpacked 2026, les dirigeants ont démontré la fluidité de l'intégration, montrant comment le NPU (Neural Processing Unit) du Galaxy S26 travaille en tandem avec le raisonnement basé sur le cloud de Gemini pour gérer la navigation dans les applications en temps réel avec une latence minimale.
« Ce n'est pas seulement une mise à jour d'application ; c'est une réimagination fondamentale de la façon dont le système d'exploitation sert l'utilisateur », a déclaré un porte-parole de Google. « En combinant l'excellence matérielle de Samsung avec nos modèles Gemini 3.0 Pro, nous créons une couche "IA OS" qui se situe au-dessus de l'écosystème d'applications traditionnel. »
Bien que la fonctionnalité soit lancée simultanément sur le Pixel 10, l'accent mis sur le Galaxy S26 souligne la dépendance de Google vis-à-vis de l'énorme base installée de Samsung pour stimuler l'adoption par le grand public des comportements agentiques.
La technologie qui sous-tend cette percée repose sur une combinaison de modèles d'action de grande taille (Large Action Models - LAMs) et d'ancrage visuel (visual grounding). Contrairement aux intégrations API traditionnelles qui obligent les développeurs à créer des « crochets » spécifiques pour l'IA, la nouvelle capacité de Gemini est d'abord visuelle. Elle « voit » l'écran.
L'architecture de « fenêtre virtuelle » (Virtual Window) :
Pour empêcher l'IA de détourner l'écran actif de l'utilisateur, l'automatisation se produit dans une « fenêtre virtuelle » — un environnement sandbox qui s'exécute en arrière-plan. Les utilisateurs peuvent continuer à faire défiler Instagram ou à consulter leurs e-mails pendant que Gemini navigue de manière invisible dans l'application Uber. Un îlot de notification dynamique en haut de l'écran tient l'utilisateur informé de la progression de l'agent (par exemple, « Sélection du véhicule... », « Révision du panier... »).
Services pris en charge :
Au lancement, l'automatisation à plusieurs étapes est optimisée pour un groupe restreint d'applications à haute fréquence, principalement dans l'économie à la demande :
Google a promis d'étendre cette compatibilité à la réservation de voyages et à la gestion de calendrier d'ici le troisième trimestre 2026.
Confier le contrôle de ses applications et de son pouvoir d'achat à une IA nécessite une immense confiance. Google a mis en œuvre plusieurs couches de sécurité pour atténuer les risques. La « fenêtre virtuelle » est isolée du reste du système d'exploitation, empêchant l'IA d'accéder à des données en dehors de la tâche spécifique en cours. De plus, l'IA a l'interdiction de finaliser les paiements sans une authentification biométrique explicite (empreinte digitale ou reconnaissance faciale) de la part de l'utilisateur.
Les détracteurs soulignent toutefois que cette approche visuelle implique que l'IA analyse des captures d'écran des applications privées de l'utilisateur. Google assure que ce traitement est effectué principalement sur l'appareil pour le Galaxy S26 et le Pixel 10, grâce à leurs capacités de traitement local avancées, seuls des jetons d'action anonymisés étant vérifiés dans le cloud.
Cette annonce place Google fermement en tête de ses concurrents dans la course au déploiement d'une IA agentique destinée au grand public. Alors qu'OpenAI a démontré des capacités similaires d'« utilisation de l'ordinateur » (computer use) avec ses modèles de bureau, leur implémentation mobile en est encore à ses débuts. De même, Apple Intelligence d'Apple s'est concentrée sur une intégration profonde de Siri via des API (App Intents), ce qui nécessite l'adoption par les développeurs. L'approche visuelle de Google lui permet de contourner la nécessité de mises à jour spécifiques par les développeurs, ce qui la rend potentiellement compatible avec une gamme plus large d'applications existantes plus rapidement.
Pour comprendre l'ampleur de ce changement, nous pouvons comparer le flux de travail de la génération précédente d'assistants avec le nouveau Gemini Agentique.
Comparaison des fonctionnalités : Efficacité du flux de travail
| Tâche | Assistant vocal traditionnel (2024) | Gemini Agentique (2026) |
|---|---|---|
| Commande | « Commande de la nourriture de Thai Spice » | « Commande mon Pad Thai habituel de Thai Spice sur DoorDash. » |
| Action | Ouvre l'application DoorDash ou effectue une recherche Google. | Ouvre DoorDash en arrière-plan, navigue dans le menu, ajoute l'article au panier. |
| Effort utilisateur | Élevé : L'utilisateur doit faire défiler, sélectionner les articles et payer manuellement. | Faible : L'utilisateur attend la notification, examine le résumé, appuie sur « Confirmer ». |
| Interactivité | Reconnaissance vocale uniquement. | Navigation visuelle, clic sur les boutons, remplissage de formulaires. |
| Multitâche | Bloque l'écran pendant l'interaction. | S'exécute en arrière-plan ; l'utilisateur continue d'autres tâches. |
| Paiement | L'utilisateur s'authentifie manuellement dans l'application. | Approbation biométrique du panier pré-préparé. |
À mesure que l'année 2026 avance, la définition d'un « smartphone » évolue vers celle d'un « compagnon intelligent ». La capacité de Gemini à automatiser la logistique banale comme la commande d'un dîner ou l'appel d'un VTC n'est que la première étape. Les analystes du secteur prédisent que d'ici la fin de l'année, cette technologie s'étendra à des flux de travail complexes inter-applications, tels que « Planifie une soirée en amoureux », où l'IA réserve de manière autonome une table de restaurant via OpenTable, achète des billets de cinéma via Fandango et planifie un trajet pour coordonner les horaires.
Pour l'instant, les utilisateurs d'Android sur le Galaxy S26 et le Pixel 10 ont un premier aperçu d'un futur où le téléphone travaille pour eux, et non l'inverse.