
Когда правительство Соединенного Королевства (United Kingdom) несколько месяцев назад подписало резонансный меморандум о взаимопонимании (Memorandum of Understanding, MoU) с OpenAI, это заявление было представлено как знаковый момент для цифрового будущего страны. Министры рекламировали партнерство как катализатор для «решения величайших проблем общества» и использования искусственного интеллекта (Artificial Intelligence, AI) для трансформации предоставления государственных услуг. Однако восемь месяцев спустя, когда пыль улеглась, выяснилась суровая реальность: правительство до сих пор не провело никаких существенных испытаний технологий OpenAI в государственном секторе.
Для администрации, которая неоднократно позиционировала себя как мирового лидера в области управления и внедрения ИИ, отсутствие прогресса вызывает неудобные вопросы. При анализе состояния интеграции ИИ в Великобритании становится ясно, что существует значительный разрыв между политической риторикой реформ, основанных на ИИ, и операционной реальностью государственных ведомств.
Пристальное внимание обусловлено запросом о свободе информации (Freedom of Information, FoI), поданным консалтинговой компанией в сфере ИИ Valliance. Запрос преследовал цель прояснить ситуацию с испытаниями, проводимыми в рамках вышеупомянутого меморандума о взаимопонимании. Ответ Министерства науки, инноваций и технологий (DSIT) был резким: ведомство не располагает информацией о таких испытаниях и не проводило никакого тестирования в рамках соглашения.
Хотя правительство указало на ограниченное использование ChatGPT Министерством юстиции (Ministry of Justice, MoJ) в качестве признака прогресса, отраслевые наблюдатели утверждают, что это едва затрагивает поверхность обещанного. Меморандум о взаимопонимании (MoU) должен был пойти гораздо дальше, преследуя цель выявить возможности для развертывания передовых моделей в правительстве и частном секторе. Вместо этого критики предполагают, что подход правительства характеризуется «провалом намерений», а не техническими узкими местами.
В следующей таблице показано несоответствие между заявленными целями партнерств правительства в области ИИ и задокументированным на сегодняшний день прогрессом.
| Аспект | Заявленная цель | Текущий статус |
|---|---|---|
| Стратегическое развертывание ИИ | Развертывание передовых моделей ИИ во всех государственных функциях | Ограничено изолированным мелкомасштабным использованием ChatGPT в Министерстве юстиции |
| Инфраструктурные цели | Создание «Stargate UK» и развертывание 8 000 чипов Nvidia | Прогресс застопорился; значительные сомнения в сроках завершения |
| Подотчетность | Установление прозрачной, измеримой общественной выгоды | Отсутствие четких показателей или стандартизированного контроля за закупками |
| Совместные исследования | Активное, постоянное сотрудничество в области безопасности и инноваций | В основном ограничено неэкспериментальными исследованиями безопасности |
Отсутствие ощутимого прогресса — это не просто операционная неудача; это затрагивает самую суть того, как правительства должны закупать и управлять передовыми технологиями. Эксперты Института Ады Лавлейс (Ada Lovelace Institute) и других аналитических центров выразили обоснованную обеспокоенность по поводу «добровольного» характера этих партнерств.
В отличие от традиционных процессов закупок, которые связаны строгими правилами государственных тендеров, подотчетности и прозрачности, эти высокоуровневые меморандумы о взаимопонимании часто работают в регуляторной серой зоне. Обходя стандартные протоколы, правительство рискует создать сценарий «привязки» к поставщику (vendor lock-in), когда государственные службы становятся чрезмерно зависимыми от конкретных проприетарных продуктов, не подвергнув их тщательной проверке, необходимой для развертывания в государственном секторе.
Более того, общественность становится все более настороженной. Опросы показывают, что значительное большинство граждан обеспокоено тем, что правительство может отдавать приоритет интересам сектора ИИ, а не фундаментальной необходимости защиты населения. Когда правительство подписывает соглашения с технологическими гигантами, такими как OpenAI, Google DeepMind и Anthropic, подразумевается обещание, что эти сделки принесут прямые улучшения в общественную жизнь. Когда эти результаты не материализуются, это подрывает доверие к тем самым институтам, которым поручено управление переходом на ИИ.
Колебания при переходе от меморандума к реализации — часто описываемые как осторожный подход к безопасности — на самом деле могут быть контрпродуктивными. Хотя строгие испытания на безопасность, такие как те, что проводит Институт безопасности ИИ Великобритании (UK AI Safety Institute), имеют важное значение, они не должны служить оправданием для административного паралича.
Внедрение ИИ в государственном секторе (Public sector AI) — это не только выбор модели; это создание цифровой инфраструктуры, повышение квалификации персонала и реинжиниринг бюрократических процессов для интеграции ИИ. Не запуская значимых испытаний, правительство Великобритании (UK government) упускает критические возможности для «обучения на практике». Каждый месяц задержки — это месяц, когда государственная служба остается непосвященной в нюансы оперативного проектирования (prompt engineering), конфиденциальности данных в рабочих процессах ИИ и этического управления алгоритмическим принятием решений.
Чтобы выйти из нынешнего тупика, правительство Великобритании должно перейти от широких, необязывающих соглашений к четким, ориентированным на результат стратегиям. Следующие шаги необходимы для восстановления доверия и стимулирования подлинных инноваций:
Поскольку Creati.ai продолжает отслеживать пересечение политики и инноваций, становится ясно, что подписание сделки — это только первый шаг. Истинная проверка стратегии правительства в области ИИ заключается не в пресс-релизах или меморандумах, а в кропотливой, детальной и часто сложной работе по интеграции этих технологий в ежедневные операции государства. До тех пор, пока правительство Великобритании не продемонстрирует готовность перейти от стола подписания к пилотному тестированию, его амбиции в отношении «государственной службы под руководством ИИ» будут оставаться, на данный момент, в основном декларативными.