Новости

Киберпреступники начали использовать языковые модели для обхода систем защиты

Хакерская группировка Silent Werewolf (также известная как XDSpy), более 14 лет атакующая организации в странах СНГ, стала применять большие языковые модели (LLM) не только для разработки вредоносного ПО, но и для обхода защитных систем компаний. С начала 2025 года зафиксированы десятки случаев использования этой технологии при атаках на энергетические и промышленные предприятия. Однако эксперты расходятся во мнениях относительно точного механизма применения LLM в кибератаках.

Фото: Freepik

По данным Bi: Zone, партнера «Сбера», злоумышленники использовали языковую модель Llama* (принадлежит Meta, деятельность которой запрещена на территории РФ) для обхода «песочницы» — системы анализа подозрительных файлов.

Вредоносный загрузчик, распространяемый через фишинговые письма, при обнаружении «песочницы» вместо основной вредоносной нагрузки устанавливал легитимный файл LLM, который система защиты признавала безопасным. После успешного обхода защиты загрузчик получал с серверов злоумышленников основной вредоносный модуль — стилер XDigo, предназначенный для кражи конфиденциальных данных.

В марте 2025 года группировка провела две кампании против примерно 80 организаций в России и Молдавии, работающих в атомной промышленности, авиа- и машиностроении. По мнению экспертов Bi: Zone, выбор языковой модели в качестве «прикрытия» мог быть связан с активными экспериментами хакеров с технологиями ИИ, которые они используют для написания кода, планирования атак и составления фишинговых сообщений.

Специалисты по-разному интерпретируют роль LLM в этих атаках. Представители F6 подтвердили факт использования группировкой файла llama-2-70b.Q5_K_M.gguf размером 45,4 Гб, но отметили, что это «довольно старый подход», впервые замеченный еще в апреле 2024 года. По их мнению, модель служит лишь файлом-заглушкой, а не инструментом непосредственной атаки.

Positive Technologies, в свою очередь, предлагает альтернативное объяснение: злоумышленники могут фильтровать пользователей, переходящих по вредоносным ссылкам, направляя реальных жертв на загрузку вредоносного ПО, а исследователей кибербезопасности — на скачивание больших легитимных файлов, включая LLM. Это затрудняет анализ их деятельности.

Эксперты прогнозируют увеличение числа сложных многоэтапных атак с использованием ИИ, когда злоумышленники будут последовательно пробовать различные методы взлома. Как отмечает гендиректор MTS RED Иван Вассунов, это усугубит проблему нехватки квалифицированных кадров в сфере кибербезопасности.

Глава Security Vision Руслан Рахметов обращает внимание на растущую эффективность применения ИИ для разработки вредоносного ПО, поиска уязвимостей и автоматизации анализа компрометированных систем. В будущем это может привести к появлению полностью автономных кибератак.

Для противодействия новым угрозам специалисты рекомендуют комплексные меры: совершенствование «песочниц», регулярный аудит используемых языковых моделей и повышение осведомленности сотрудников о современных методах социальной инженерии. Как отмечает руководитель департамента киберраследований T.Hunter Игорь Бедеров, хотя подобные атаки пока остаются редкими, их количество неуклонно растет, требуя от организаций повышенного внимания к вопросам безопасности в сети.