
In einem Wendepunkt für die mobile Künstliche Intelligenz (Mobile Artificial Intelligence), hat Google offiziell bekannt gegeben, dass sein Gemini AI-Assistent nun autonom komplexe, mehrstufige Aufgaben auf Android-Geräten ausführen kann. Dieses große Update, das am 25. Februar 2026 enthüllt wurde, markiert den Übergang der mobilen KI von der passiven Informationsabfrage zur aktiven „agentischen“ (agentic) Beteiligung. Die neuen Funktionen, die die End-to-End-Abwicklung von Essenslieferungen und Fahrdiensten umfassen, werden exklusiv als frühe Vorschau auf der neu eingeführten Samsung Galaxy S26-Serie und Googles eigener Pixel 10-Reihe debütieren, bevor eine breitere Einführung erfolgt.
Diese Entwicklung stellt den Höhepunkt der Initiativen „Project Jarvis“ und „Project Astra“ von Google dar und bringt schließlich das Versprechen eines wirklich hilfreichen, proaktiven digitalen Agenten in die Taschen der Verbraucher. Durch die Nutzung fortschrittlicher visueller Verarbeitung und tiefer Integration in das Betriebssystem kann Gemini nun durch Benutzeroberflächen von Drittanbietern navigieren, ähnlich wie ein menschlicher Benutzer, und so die Lücke zwischen Absicht und Handlung effektiv schließen.
Seit Jahren verspricht die Branche eine KI, die „Dinge tut“ und nicht nur „Dinge weiß“. Mit diesem Update löst Google dieses Versprechen ein. Die neue Funktionalität ermöglicht es Nutzern, umfassende, übergeordnete Befehle zu erteilen, wie zum Beispiel „Bestelle mein übliches Freitagsabendessen bei DoorDash“ oder „Buche eine Fahrt zum Flughafen für zwei Personen“.
Anstatt einfach nur die App zu öffnen oder einen Link bereitzustellen, führt Gemini nun die folgenden Aktionen autonom aus:
Diese Designphilosophie des „Human-in-the-loop“ adressiert die Hauptsorge im Zusammenhang mit agentischer KI (Agentic AI): den Kontrollverlust. Indem Google die mühsame Navigation übernimmt, die endgültige Entscheidung jedoch dem Nutzer überlässt, schafft das Unternehmen ein Gleichgewicht zwischen Komfort und Sicherheit.
Die strategische Partnerschaft zwischen Google und Samsung vertieft sich weiter, wobei die Galaxy S26-Serie als primäre Startrampe für diese fortschrittlichen Funktionen dient. Während des Samsung Unpacked 2026 Events demonstrierten Führungskräfte die Geschmeidigkeit der Integration und zeigten, wie die NPU (Neural Processing Unit) des Galaxy S26 mit der cloudbasierten Logik von Gemini zusammenarbeitet, um die App-Navigation in Echtzeit mit minimaler Latenz zu bewältigen.
„Dies ist nicht nur ein App-Update; es ist eine grundlegende Neugestaltung dessen, wie das Betriebssystem dem Nutzer dient“, erklärte ein Google-Sprecher. „Durch die Kombination der Hardware-Exzellenz von Samsung mit unseren Gemini 3.0 Pro-Modellen schaffen wir eine ‚AI OS‘-Ebene, die über dem traditionellen App-Ökosystem liegt.“
Während die Funktion gleichzeitig auf dem Pixel 10 eingeführt wird, unterstreicht die Betonung des Galaxy S26 Googles Abhängigkeit von Samsungs massiver Installationsbasis, um die massentaugliche Einführung agentischer Verhaltensweisen voranzutreiben.
Die Technologie, die diesem Durchbruch zugrunde liegt, basiert auf einer Kombination aus Large Action Models (LAMs) und Visual Grounding. Im Gegensatz zu herkömmlichen API-Integrationen, die von Entwicklern das Erstellen spezifischer „Hooks“ für die KI erfordern, ist die neue Fähigkeit von Gemini visuell ausgerichtet. Sie „sieht“ den Bildschirm.
Die Architektur des „Virtuellen Fensters“:
Um zu verhindern, dass die KI den aktiven Bildschirm des Nutzers übernimmt, erfolgt die Automatisierung in einem „Virtuellen Fenster“ (Virtual Window) – einer Sandbox-Umgebung, die im Hintergrund läuft. Nutzer können weiterhin durch Instagram scrollen oder E-Mails prüfen, während Gemini unsichtbar in der Uber-App navigiert. Eine dynamische Benachrichtigungsinsel am oberen Bildschirmrand hält den Nutzer über den Fortschritt des Agenten auf dem Laufenden (z. B. „Fahrzeug wird ausgewählt...“, „Warenkorb wird überprüft...“).
Unterstützte Dienste:
Zum Start ist die mehrstufige Automatisierung für eine ausgewählte Gruppe von Apps mit hoher Nutzungsfrequenz optimiert, primär in der On-Demand-Wirtschaft:
Google hat versprochen, diese Kompatibilität bis zum dritten Quartal 2026 auf Reisebuchungen und Kalendermanagement auszuweiten.
Die Kontrolle über die eigenen Apps und die Kaufkraft an eine KI zu übergeben, erfordert immenses Vertrauen. Google hat mehrere Sicherheitsebenen implementiert, um Risiken zu minimieren. Das „Virtuelle Fenster“ ist vom Rest des Betriebssystems isoliert, was verhindert, dass die KI auf Daten außerhalb der spezifischen Aufgabe zugreift. Darüber hinaus ist es der KI untersagt, Zahlungen ohne explizite biometrische Authentifizierung (Fingerabdruck oder Gesichtserkennung) durch den Nutzer abzuschließen.
Kritiker weisen jedoch darauf hin, dass dieser visuelle Ansatz beinhaltet, dass die KI Screenshots der privaten Apps des Nutzers analysiert. Google versichert, dass diese Verarbeitung dank der fortschrittlichen lokalen Verarbeitungsfähigkeiten des Galaxy S26 und Pixel 10 primär auf dem Gerät erfolgt, wobei nur anonymisierte Aktions-Token in der Cloud verifiziert werden.
Diese Ankündigung positioniert Google fest vor seinen Mitbewerbern im Rennen um den Einsatz von agentischer KI für Verbraucher. Während OpenAI ähnliche „Computer Use“-Fähigkeiten mit seinen Desktop-Modellen demonstriert hat, befindet sich deren mobile Implementierung noch in einem frühen Stadium. Ähnlich hat sich Apples Apple Intelligence auf eine tiefe Siri-Integration über APIs (App Intents) konzentriert, was die Übernahme durch Entwickler erfordert. Der visuelle Ansatz von Google ermöglicht es, die Notwendigkeit entwicklerspezifischer Updates zu umgehen, was es potenziell schneller kompatibel mit einer breiteren Palette von Bestands-Apps macht.
Um das Ausmaß dieses Wandels zu verstehen, können wir den Workflow der vorherigen Generation von Assistenten mit dem neuen agentischen Gemini vergleichen.
Funktionsvergleich: Workflow-Effizienz
| Aufgabe | Traditioneller Sprachassistent (2024) | Agentisches Gemini (2026) |
|---|---|---|
| Befehl | „Bestelle Essen bei Thai Spice“ | „Bestelle mein übliches Pad Thai bei Thai Spice über DoorDash.“ |
| Aktion | Öffnet die DoorDash-App oder führt eine Google-Suche aus. | Öffnet DoorDash im Hintergrund, navigiert durch das Menü, legt Artikel in den Warenkorb. |
| Nutzeraufwand | Hoch: Der Nutzer muss manuell scrollen, Artikel auswählen und bezahlen. | Niedrig: Der Nutzer wartet auf die Benachrichtigung, prüft die Zusammenfassung, tippt auf „Bestätigen“. |
| Interaktivität | Nur Sprache-zu-Text. | Visuelle Navigation, Klicken von Schaltflächen, Ausfüllen von Formularen. |
| Multitasking | Blockiert den Bildschirm während der Interaktion. | Läuft im Hintergrund; Nutzer setzt andere Aufgaben fort. |
| Bezahlung | Nutzer authentifiziert sich manuell in der App. | Biometrische Freigabe des vorbereiteten Warenkorbs. |
Im Laufe des Jahres 2026 verschiebt sich die Definition eines „Smartphones“ hin zu einem „intelligenten Begleiter“. Die Fähigkeit von Gemini, alltägliche Logistik wie das Bestellen des Abendessens oder das Rufen eines Fahrdienstes zu automatisieren, ist erst der Anfang. Branchenanalysten sagen voraus, dass diese Technologie bis Ende des Jahres auf komplexe, app-übergreifende Workflows ausgeweitet wird, wie zum Beispiel „Plane einen Abend für ein Date“, bei dem die KI autonom einen Restauranttisch über OpenTable reserviert, Kinokarten über Fandango kauft und eine Fahrt plant, um die Zeiten abzustimmen.
Vorerst erhalten Android-Nutzer des Galaxy S26 und Pixel 10 einen ersten Vorgeschmack auf eine Zukunft, in der das Telefon für sie arbeitet und nicht umgekehrt.