
Недавняя демонстрация, проведенная исследователями в области кибербезопасности из CodeWall, стала пугающим сигналом для сектора корпоративного ИИ. Автономный наступательный ИИ-агент, действующий без участия человека, учетных данных или предварительных инсайдерских знаний, успешно скомпрометировал внутреннюю платформу генеративного ИИ (Generative AI) McKinsey под названием «Lilli» менее чем за два часа. В то время как технологическая индустрия была гиперфокусирована на экзистенциальных рисках «роботов-убийц» или сложных атаках типа промпт-инъекция (Prompt Injection), этот инцидент служит жестоким напоминанием о том, что самые опасные угрозы для инфраструктуры ИИ часто проистекают из фундаментальных недостатков безопасности, существующих десятилетиями.
Это событие — не просто утечка данных; это доказательство концепции (proof-of-concept) новой эры кибервойн. Пока организации спешат интегрировать генеративный ИИ в свои рабочие процессы, они непреднамеренно расширяют поверхности атаки, создавая среду, в которой автономные агенты могут идентифицировать, эксплуатировать и проникать в системы на скорости машины. Для McKinsey, фирмы, построенной на столпах конфиденциальности данных и стратегической секретности, эта компрометация внутренней платформы, используемой более чем 40 000 сотрудников, иллюстрирует острую необходимость смены парадигмы в том, как мы обеспечиваем безопасность корпоративного ИИ.
Взлом, проведенный CodeWall, использовал автономного агента, предназначенного для поиска уязвимостей в общедоступной документации API. В отличие от хакеров-людей, которые могут тратить дни или недели на проведение разведки, агент CodeWall работал со скоростью вычислений. В течение 120 минут агент получил полный доступ на чтение и запись к производственной базе данных, лежащей в основе Lilli.
Агент не полагался на экзотические эксплойты, специфичные для ИИ. Вместо этого он систематически составил карту инфраструктуры и идентифицировал открытую техническую документацию, в которой было перечислено более 200 конечных точек (endpoints). Из них 22 конечные точки не требовали аутентификации. Итерируя их, агент обнаружил классическую уязвимость SQL-инъекция (SQL injection).
Эффективность агента была усилена его автономной природой. Он смог:
Возможно, самым поразительным аспектом дела McKinsey является сам вектор атаки: SQL-инъекция. Это класс уязвимостей, документированный еще с 1990-х годов. Тот факт, что ультрасовременная платформа генеративного ИИ могла пасть жертвой «базовой» веб-уязвимости, подчеркивает разрыв между развитием возможностей ИИ и зрелостью инфраструктуры безопасности, окружающей их.
Инцидент подчеркивает важный урок для разработчиков: системы ИИ — это в первую очередь программные системы. Когда разработчики создают оболочки вокруг больших языковых моделей (Large Language Models, LLM), чтобы подключить их к базам данных, они фактически создают новые веб-приложения. Если уровень API, соединяющий LLM с базой данных, не выполняет очистку входных данных (sanitization) — как это было в случае с Lilli, где имена полей JSON внедрялись напрямую в запросы — расширенные возможности рассуждения ИИ становятся вторичными по отношению к уязвимостям хост-сервера.
Следующая таблица сопоставляет традиционные проблемы безопасности, с которыми сталкиваются стандартные веб-приложения, с повышенным профилем риска современных платформ, интегрированных с ИИ.
| Тип уязвимости | Механизм атаки | Уровень риска для ИИ-платформ |
|---|---|---|
| SQL-инъекция | Внедрение вредоносного кода в запросы к базе данных через невалидированные входные данные | Высокий Прямой доступ к данным RAG и системным промптам |
| Промпт-инъекция | Манипулирование инструкциями LLM для обхода защитных ограничений | Критический Может привести к эксфильтрации данных или выполнению вредоносного кода |
| Несанкционированный доступ к API | Эксплуатация неаутентифицированных конечных точек в микросервисах | Высокий Обеспечивает точку входа для автоматизированных агентов |
| Инверсия модели | Восстановление обучающих данных из выходных данных модели | Средний Риск раскрытия конфиденциальной информации клиентов |
Хотя взлом McKinsey был контролируемым упражнением по редтимингу (Red Teaming), он демонстрирует будущее, в котором автономные агенты будут использоваться злоумышленниками для масштабирования атак. Способность агента автономно выбирать цель, изучать ее документацию, выявлять слабую конечную точку и выполнять цикл эксплуатации является множителем силы.
Традиционно хакер-человек может решить двигаться дальше, если цель окажется слишком устойчивой или требующей больших временных затрат. ИИ-агент не страдает от таких ограничений. Он может работать непрерывно, 24/7, одновременно по нескольким целям, что делает его важным инструментом для киберугроз следующего поколения.
Для предприятий вывод очевиден: «теневой ИИ» (Shadow AI) и быстро развертываемые внутренние инструменты могут стать обузой, если к ним не относиться с теми же строгими стандартами безопасности, что и к основным финансовым или клиентским системам.
Инцидент в McKinsey — это не признак того, что ИИ по своей сути небезопасен, а скорее того, что индустрия безопасности пытается догнать скорость внедрения ИИ. По мере того как эти платформы становятся «нервной системой» крупных консалтинговых компаний и корпораций, ответственность за их безопасность перемещается из ИТ-отдела в залы заседаний совета директоров.
Тот факт, что McKinsey отключила платформу и устранила уязвимости в течение нескольких часов, является свидетельством важности надежной, проактивной политики раскрытия информации и гибкой группы реагирования на инциденты безопасности. Однако по мере того как ИИ-агенты становятся более изощренными, окно времени, доступное для реакции человека, будет сокращаться. Конечной целью для предприятия будет создание ИИ-платформ, «безопасных по проектированию» (secure by design), где сама архитектура предотвращает тот вид автоматизированной эксплуатации на скорости машины, который определил это недавнее событие.
Creati.ai продолжает внимательно следить за этими событиями. Эра кибербезопасности «человек против человека» стремительно уступает место будущему «ИИ против ИИ», и для предприятий это означает, что вчерашних инструментов защиты больше недостаточно для обеспечения безопасности бизнес-моделей завтрашнего дня. кибербезопасность