Новости

В ChatGPT нашли дыру безопасности, через которую можно было красть данные с серверов OpenAI

Специалисты по кибербезопасности из компании Radware обнаружили критическую уязвимость в агенте глубокого исследования (Deep Research) ChatGPT. Эксплойт, получивший название ShadowLeak, позволял злоумышленникам незаметно извлекать данные пользователей с серверов OpenAI без какого-либо взаимодействия со стороны жертвы. Это первая зафиксированная атака такого типа, затрагивающая автономного ИИ-агента.

Solen Feyissa/Unsplash

Атака происходит полностью на стороне сервера. Это так называемая атака с нулевым кликом. Злоумышленнику достаточно просто отправить специально созданное электронное письмо на адрес жертвы. Агент Deep Research, обрабатывая это письмо в фоновом режиме, активировал вредоносный код, который инициировал утечку конфиденциальной информации.

В отличие от предыдущих уязвимостей, ShadowLeak не оставляет следов на устройстве пользователя или в сетевых логах, что делает ее обнаружение традиционными средствами практически невозможным. Атака эксплуатирует логику самого ИИ-агента на облачных серверах OpenAI, обходя стандартные меры защиты. Все происходит «за кулисами», и жертва даже не подозревает о компрометации.


Учитывая, что у ChatGPT насчитывается 5 млн платящих бизнес-пользователей, такой эксплойт создает серьезный риск для безопасности компаний.


Организации, интегрирующие ИИ в свои процессы и доверяющие ему конфиденциальные данные, сталкиваются с новым классом угроз, которые не учитываются стандартными политиками безопасности. Автономность ИИ-агентов создает новые векторы атак.

Компания Radware сообщила об уязвимости OpenAI 18 июня 2025 года, и 3 сентября OpenAI внедрила исправление. Этот инцидент подчеркивает необходимость пересмотра подходов к безопасности в эпоху ИИ. Предприятиям рекомендуется оценивать риски, связанные с автономным поведением ИИ-агентов, и не полагаться исключительно на встроенные в платформы механизмы защиты.