
В переломный момент для мобильного искусственного интеллекта компания Google официально объявила, что её ИИ-ассистент Gemini теперь может автономно выполнять сложные многоэтапные задачи на устройствах Android. Это масштабное обновление, представленное 25 февраля 2026 года, знаменует переход мобильного ИИ от пассивного поиска информации к активному «агентному» участию (agentic participation). Новые возможности, включающие сквозную обработку заказов на доставку еды и услуги заказа такси, дебютируют исключительно в качестве ранней предварительной версии на недавно выпущенной серии Samsung Galaxy S26 и собственной линейке Google Pixel 10 перед более широким развертыванием.
Эта разработка представляет собой кульминацию инициатив Google «Проект Джарвис» (Project Jarvis) и «Проект Астра» (Project Astra), наконец-то привнося обещание по-настоящему полезного, проактивного цифрового агента в карманы потребителей. Используя передовую визуальную обработку и глубокую интеграцию с операционной системой, Gemini теперь может перемещаться по интерфейсам сторонних приложений так же, как это делал бы человек, эффективно сокращая разрыв между намерением и действием.
На протяжении многих лет индустрия обещала ИИ, который «делает вещи», а не просто «знает вещи». С этим обновлением Google выполняет это обещание. Новая функциональность позволяет пользователям отдавать широкие команды высокого уровня, такие как «Закажи мой обычный ужин в пятницу вечером через DoorDash» или «Забронируй поездку в аэропорт для двух человек».
Вместо того чтобы просто открыть приложение или предоставить ссылку, Gemini теперь автономно выполняет следующие действия:
Эта философия дизайна «Человек в цикле» (Human-in-the-loop) решает основную проблему, связанную с агентным ИИ: потерю контроля. Беря на себя утомительную навигацию и оставляя окончательное исполнительное решение за пользователем, Google соблюдает баланс между удобством и безопасностью.
Стратегическое партнерство между Google и Samsung продолжает углубляться: серия Galaxy S26 служит основной платформой для запуска этих передовых функций. Во время мероприятия Samsung Unpacked 2026 руководители продемонстрировали плавность интеграции, показав, как NPU (нейронный процессор) Galaxy S26 работает в тандеме с облачными рассуждениями Gemini для обеспечения навигации в приложениях в реальном времени с минимальной задержкой.
«Это не просто обновление приложения; это фундаментальное переосмысление того, как операционная система служит пользователю», — заявил представитель Google. «Объединяя превосходное аппаратное обеспечение Samsung с нашими моделями Gemini 3.0 Pro, мы создаем слой "AI OS", который находится над традиционной экосистемой приложений».
Хотя функция запускается на Pixel 10 одновременно, акцент на Galaxy S26 подчеркивает зависимость Google от огромной базы установленных устройств Samsung для стимулирования массового внедрения агентного поведения.
Технология, лежащая в основе этого прорыва, опирается на сочетание больших моделей действий (Large Action Models, LAMs) и визуальной привязки. В отличие от традиционных интеграций через API, которые требуют от разработчиков создания специальных «крючков» для ИИ, новая возможность Gemini ориентирована прежде всего на визуальное восприятие. Он «видит» экран.
Архитектура «Виртуального окна»:
Чтобы предотвратить перехват ИИ активного экрана пользователя, автоматизация происходит в «Виртуальном окне» — изолированной среде (sandbox), которая работает в фоновом режиме. Пользователи могут продолжать прокручивать Instagram или проверять электронную почту, пока Gemini невидимо перемещается по приложению Uber. Динамический островок уведомлений в верхней части экрана информирует пользователя о прогрессе агента (например, «Выбор транспортного средства...», «Проверка корзины...»).
Поддерживаемые сервисы:
На момент запуска многоэтапная автоматизация оптимизирована для избранной группы высокочастотных приложений, в основном в экономике по требованию:
Google пообещала расширить эту совместимость на бронирование путешествий и управление календарем к третьему кварталу 2026 года.
Передача контроля над своими приложениями и покупательной способностью ИИ требует огромного доверия. Google внедрила несколько уровней безопасности для снижения рисков. «Виртуальное окно» изолировано от остальной части ОС, что предотвращает доступ ИИ к данным за пределами конкретной поставленной задачи. Кроме того, ИИ запрещено совершать платежи без явной биометрической аутентификации (отпечаток пальца или разблокировка по лицу) со стороны пользователя.
Критики, однако, указывают на то, что этот визуальный подход подразумевает анализ ИИ скриншотов личных приложений пользователя. Google заверяет, что эта обработка выполняется преимущественно на устройстве для Galaxy S26 и Pixel 10 благодаря их передовым возможностям локальной обработки, и только анонимизированные токены действий проверяются в облаке.
Это объявление выводит Google в лидеры среди конкурентов в гонке за развертывание потребительского агентного ИИ. Хотя OpenAI продемонстрировала аналогичные возможности «использования компьютера» в своих настольных моделях, их мобильная реализация остается на ранних стадиях. Аналогичным образом, Apple Intelligence сфокусировалась на глубокой интеграции Siri через API (App Intents), что требует участия разработчиков. Визуальный подход Google позволяет обойти необходимость в специальных обновлениях от разработчиков, потенциально делая его совместимым с более широким спектром устаревших приложений быстрее.
Чтобы понять масштаб этого сдвига, мы можем сравнить рабочий процесс ассистентов предыдущего поколения с новым агентным Gemini.
Сравнение функций: Эффективность рабочего процесса
| Задача | Традиционный голосовой ассистент (2024) | Агентный Gemini (2026) |
|---|---|---|
| Команда | «Закажи еду из Thai Spice» | «Закажи мой обычный Пад-тай из Thai Spice через DoorDash». |
| Действие | Открывает приложение DoorDash или выполняет поиск в Google. | Открывает DoorDash в фоновом режиме, перемещается по меню, добавляет товар в корзину. |
| Усилия пользователя | Высокие: пользователь должен самостоятельно прокручивать, выбирать товары и оформлять заказ. | Низкие: пользователь ждет уведомления, проверяет сводку, нажимает «Подтвердить». |
| Интерактивность | Только преобразование голоса в текст. | Визуальная навигация, нажатие кнопок, заполнение форм. |
| Многозадачность | Блокирует экран во время взаимодействия. | Работает в фоновом режиме; пользователь продолжает другие задачи. |
| Оплата | Пользователь вручную аутентифицируется в приложении. | Биометрическое подтверждение предварительно сформированной корзины. |
По мере развития 2026 года определение «смартфона» смещается в сторону «интеллектуального компаньона». Способность Gemini автоматизировать рутинную логистику, такую как заказ ужина или вызов такси, — это лишь первый шаг. Отраслевые аналитики прогнозируют, что к концу года эта технология распространится на сложные рабочие процессы между приложениями, такие как «Спланируй вечер свидания», где ИИ автономно бронирует столик в ресторане через OpenTable, покупает билеты в кино через Fandango и планирует поездку для координации по времени.
На данный момент пользователи Android на Galaxy S26 и Pixel 10 получают первую возможность прикоснуться к будущему, где телефон работает на них, а не наоборот.