
OpenAI официально выпустила GPT-5.4, монументальное обновление своей серии передовых моделей (frontier model series), которое фундаментально меняет ландшафт от разговорного ИИ к автономной агентности (autonomous agency). Представленная сегодня модель вводит возможности нативного управления компьютером, массивное окно контекста в 1 миллион токенов и верифицированное снижение галлюцинаций (hallucinations) на 33% по сравнению со своей предшественницей, GPT-5.
Для творческих и технических профессионалов, следящих за индустрией ИИ на Creati.ai, GPT-5.4 представляет собой то самое «недостающее звено», которого мы ждали — модель, которая не просто генерирует текст или код, но активно выполняет сложные рабочие процессы непосредственно на устройствах пользователей с беспрецедентной надежностью.
Главной особенностью GPT-5.4, несомненно, является её способность напрямую взаимодействовать с операционными системами компьютеров. В отличие от предыдущих итераций, которые полагались на хрупкие интеграции API или трансляторы «текст-в-действие», GPT-5.4 обладает нативным управлением компьютером. Это позволяет модели видеть экран, управлять курсором, печатать на виртуальной клавиатуре и перемещаться по сложным интерфейсам программного обеспечения точно так же, как это делал бы человек.
Согласно технической документации, изученной Creati.ai, эта возможность была обучена с использованием комбинации обучения с подкреплением на основе обратной связи от человека (Reinforcement Learning from Human Feedback, RLHF) нового поколения и нового проприетарного метода OpenAI под названием «Action-Space Reasoning» (Рассуждение в пространстве действий). Это позволяет модели понимать семантический контекст элементов пользовательского интерфейса (UI), делая её устойчивой к обновлениям программного обеспечения, которые могут изменить визуальное расположение кнопок или меню — частая точка отказа для предыдущих агентных инструментов.
Ключевые возможности включают:
В то время как серия Gemini от Google ранее раздвигала границы контекстных окон, OpenAI теперь выровняла правила игры для корпоративного использования. GPT-5.4 поставляется со стандартным окном контекста в 1 миллион токенов, эффективно устраняя ограничения памяти для подавляющего большинства профессиональных сценариев использования.
Это расширение позволяет пользователям загружать целые кодовые базы, массивные архивы юридических документов или полные руководства по сюжетам длительных литературных серий в одну сессию. В ходе внутренних тестов OpenAI заявляет, что модель достигает точности 99,9% в тестах на поиск «Иголки в стоге сена» (Needle in a Haystack), даже когда информация зарыта в середине миллиона токенов шума.
Для читателей Creati.ai это означает радикальное изменение в том, как мы взаимодействуем с большими документами. Теперь вы можете загрузить 500-страничное техническое руководство и попросить модель «перейти в меню настроек, описанное на странице 40, и применить эти изменения к моей реальной системе», сокращая разрыв между знаниями и действием.
Возможно, самым важным обновлением для корпоративного внедрения является показатель надежности. OpenAI сообщает о снижении галлюцинаций на 33% по сравнению с базовой моделью GPT-5. Это улучшение приписывается новому «Слою верификации» (Verification Layer) в процессе инференса, где модель, по сути, «перепроверяет» свою логику на соответствие известным фактам перед выводом ответа.
Этот скачок в точности особенно важен для новых агентных возможностей модели. Когда ИИ получает контроль над мышью и клавиатурой, цена ошибки — например, удаление не того файла или отправка письма не тому контакту — значительно выше, чем при текстовой ошибке.
Сравнение производительности: GPT-5.4 против предыдущих поколений
Чтобы визуализировать этот поколенческий скачок, мы составили таблицу ключевых характеристик ниже:
| Характеристика | GPT-4o (Конец 2024) | GPT-5 (2025) | GPT-5.4 (2026) |
|---|---|---|---|
| Окно контекста | 128 тыс. токенов | 200 тыс. токенов | 1 миллион токенов |
| Агентные возможности | Вызов инструментов через текст | Ограниченный веб-серфинг | Нативное управление компьютером |
| Частота галлюцинаций | Базовый уровень | Снижение на 15% vs 4o | Снижение на 33% vs GPT-5 |
| Модальность | Мультимодальная (статика) | Мультимодальная (видео) | Активное взаимодействие с UI |
С большой силой приходит необходимость в надежных механизмах безопасности. OpenAI представила новый «Протокол агентных разрешений» (Agentic Permissions Protocol, APP) вместе с GPT-5.4. Этот протокол гарантирует, что модель не сможет предпринимать действия с высокими ставками — такие как авторизация платежей, удаление системных файлов или публикация в социальных сетях — без явного пошагового подтверждения человеком.
Исследователи в области безопасности высоко оценили этот подход, отметив, что он балансирует эффективность автономии с безопасностью контроля «человеком в цикле» (human-in-the-loop). В процессе настройки пользователи могут определять «Безопасные зоны» (например, определенные папки или приложения), где модель имеет полную свободу действий, и «Ограниченные зоны», где каждый клик требует одобрения.
Выпуск GPT-5.4 знаменует собой созревание Агентного ИИ (Agentic AI) от экспериментальных исследований до готового продукта. Для индустрии программного обеспечения как услуги (SaaS) это событие является разрушительным; многие инструменты, созданные исключительно для преодоления разрыва между ИИ и устаревшим ПО, теперь могут стать излишними, поскольку сама модель становится универсальным связующим звеном.
OpenAI объявила, что GPT-5.4 начнет развертываться для пользователей ChatGPT Plus и Team начиная с этой недели, а доступ к API для разработчиков будет открываться поэтапно для обеспечения стабильности системы. Корпоративные клиенты получат доступ к окну контекста в 1 миллион токенов немедленно для облегчения обработки внутренних данных.
Тестируя GPT-5.4 здесь, в Creati.ai, мы сосредоточимся на её применении в творческих рабочих процессах. Сможет ли она действительно самостоятельно редактировать видеомонтаж? Сможет ли она реорганизовать хаотичную папку с материалами писателя? Первые признаки указывают на то, что ответ — «да», что делает нас еще на шаг ближе к конечному обещанию ИИ: стать настоящим цифровым помощником.