
En un momento decisivo para la inteligencia artificial (IA) móvil, Google ha anunciado oficialmente que su asistente de IA Gemini ahora puede ejecutar de forma autónoma tareas complejas de varios pasos en dispositivos Android. Esta importante actualización, revelada el 25 de febrero de 2026, marca la transición de la IA móvil de la recuperación pasiva de información a una participación "agentiva" (agentic) activa. Las nuevas capacidades, que incluyen la gestión de extremo a extremo de pedidos de comida a domicilio y servicios de transporte, debutarán exclusivamente como una vista previa temprana en la recién lanzada serie Samsung Galaxy S26 y en la propia línea Pixel 10 de Google antes de un despliegue más amplio.
Este avance representa la culminación de las iniciativas "Project Jarvis" y "Project Astra" de Google, cumpliendo finalmente la promesa de un agente digital verdaderamente útil y proactivo en los bolsillos de los consumidores. Al aprovechar el procesamiento visual avanzado y una profunda integración con el sistema operativo, Gemini ahora puede navegar por las interfaces de aplicaciones de terceros de forma muy similar a como lo haría un usuario humano, cerrando eficazmente la brecha entre la intención y la acción.
Durante años, la industria ha prometido una IA que "hace cosas" en lugar de solo "sabe cosas". Con esta actualización, Google está cumpliendo esa promesa. La nueva funcionalidad permite a los usuarios emitir comandos amplios y de alto nivel, como "Pide mi cena habitual de los viernes en DoorDash" o "Reserva un viaje al aeropuerto para dos personas".
En lugar de simplemente abrir la aplicación o proporcionar un enlace, Gemini ahora realiza las siguientes acciones de forma autónoma:
Esta filosofía de diseño de "humano en el bucle" (Human-in-the-loop) aborda la principal preocupación en torno a la IA agentiva (agentic AI): la pérdida de control. Al encargarse de la tediosa navegación mientras deja la decisión ejecutiva final al usuario, Google logra un equilibrio entre conveniencia y seguridad.
La asociación estratégica entre Google y Samsung continúa profundizándose, con la serie Galaxy S26 sirviendo como vehículo de lanzamiento principal para estas funciones avanzadas. Durante el evento Samsung Unpacked 2026, los ejecutivos demostraron la fluidez de la integración, mostrando cómo la NPU (Neural Processing Unit) del Galaxy S26 trabaja en conjunto con el razonamiento basado en la nube de Gemini para gestionar la navegación de aplicaciones en tiempo real con una latencia mínima.
"Esto no es solo una actualización de la aplicación; es una reimaginación fundamental de cómo el sistema operativo sirve al usuario", afirmó un portavoz de Google. "Al combinar la excelencia del hardware de Samsung con nuestros modelos Gemini 3.0 Pro, estamos creando una capa de 'SO de IA' que se sitúa por encima del ecosistema de aplicaciones tradicional".
Si bien la función se lanzará en el Pixel 10 simultáneamente, el énfasis en el Galaxy S26 destaca la dependencia de Google en la enorme base instalada de Samsung para impulsar la adopción masiva de comportamientos agentivos.
La tecnología que sustenta este avance se basa en una combinación de Modelos de Acción Grande (Large Action Models - LAMs) y fundamentación visual (visual grounding). A diferencia de las integraciones de API tradicionales que requieren que los desarrolladores creen "ganchos" específicos para la IA, la nueva capacidad de Gemini es prioritariamente visual. "Ve" la pantalla.
La arquitectura de "Ventana Virtual":
Para evitar que la IA secuestre la pantalla activa del usuario, la automatización ocurre en una "Ventana Virtual", un entorno de espacio aislado (sandbox) que se ejecuta en segundo plano. Los usuarios pueden seguir desplazándose por Instagram o revisando correos electrónicos mientras Gemini navega por la aplicación de Uber de forma invisible. Una isla de notificaciones dinámicas en la parte superior de la pantalla mantiene al usuario informado sobre el progreso del agente (por ejemplo, "Seleccionando vehículo...", "Revisando carrito...").
Servicios compatibles:
En el lanzamiento, la automatización de varios pasos está optimizada para un grupo selecto de aplicaciones de alta frecuencia, principalmente en la economía bajo demanda:
Google ha prometido ampliar esta compatibilidad a la reserva de viajes y la gestión de calendarios para el tercer trimestre de 2026.
Entregar el control de las aplicaciones y el poder adquisitivo de uno a una IA requiere una confianza inmensa. Google ha implementado varias capas de seguridad para mitigar los riesgos. La "Ventana Virtual" está aislada del resto del sistema operativo, lo que evita que la IA acceda a datos fuera de la tarea específica en cuestión. Además, se prohíbe que la IA finalice pagos sin la autenticación biométrica explícita (huella dactilar o desbloqueo facial) del usuario.
Sin embargo, los críticos señalan que este enfoque visual implica que la IA analice capturas de pantalla de las aplicaciones privadas del usuario. Google asegura que este procesamiento se realiza principalmente en el dispositivo para el Galaxy S26 y el Pixel 10, gracias a sus avanzadas capacidades de procesamiento local, y solo se verifican tokens de acción anonimizados en la nube.
Este anuncio sitúa a Google firmemente por delante de sus competidores en la carrera por desplegar IA agentiva orientada al consumidor. Aunque OpenAI ha demostrado capacidades similares de "uso de computadora" con sus modelos de escritorio, su implementación móvil permanece en etapas tempranas. Del mismo modo, Apple Intelligence de Apple se ha centrado en una integración profunda de Siri a través de APIs (App Intents), lo que requiere la adopción de los desarrolladores. El enfoque visual de Google le permite eludir la necesidad de actualizaciones específicas de los desarrolladores, lo que potencialmente lo hace compatible con una gama más amplia de aplicaciones heredadas de manera más rápida.
Para comprender la magnitud de este cambio, podemos comparar el flujo de trabajo de la generación anterior de asistentes con el nuevo Gemini agentivo.
Comparación de funciones: eficiencia del flujo de trabajo
| Tarea | Asistente de voz tradicional (2024) | Gemini agentivo (2026) |
|---|---|---|
| Comando | "Pide comida de Thai Spice" | "Pide mi Pad Thai habitual de Thai Spice en DoorDash". |
| Acción | Abre la aplicación DoorDash o realiza una búsqueda en Google. | Abre DoorDash en segundo plano, navega por el menú, añade el artículo al carrito. |
| Esfuerzo del usuario | Alto: El usuario debe desplazarse, seleccionar artículos y pagar manualmente. | Bajo: El usuario espera la notificación, revisa el resumen, toca "Confirmar". |
| Interactividad | Solo voz a texto. | Navegación visual, clic en botones, llenado de formularios. |
| Multitarea | Bloquea la pantalla durante la interacción. | Se ejecuta en segundo plano; el usuario continúa con otras tareas. |
| Pago | El usuario se autentica manualmente en la aplicación. | Aprobación biométrica del carrito preestablecido. |
A medida que avanza el 2026, la definición de "teléfono inteligente" se está desplazando hacia la de un "compañero inteligente". La capacidad de Gemini para automatizar la logística mundana como pedir la cena o solicitar un transporte es solo el primer movimiento. Los analistas de la industria predicen que, para finales de año, esta tecnología se extenderá a flujos de trabajo complejos entre aplicaciones, como "Planifica una noche de cita", donde la IA reserve de forma autónoma una mesa en un restaurante a través de OpenTable, compre entradas de cine a través de Fandango y programe un transporte para coordinar con los horarios.
Por ahora, los usuarios de Android en el Galaxy S26 y Pixel 10 están probando por primera vez un futuro donde el teléfono trabaja para ellos, y no al revés.