Потерять 350 миллионов за звонок: как изменилось телефонное мошенничество

Роботы • 9 октября 2025

Потерять 350 миллионов за звонок: как изменилось телефонное мошенничество

Потерять 350 миллионов за звонок: как изменилось телефонное мошенничество

Обложка

Текст: Григорий Щеглов

Иллюстрация: Unsplash


350 млн руб. за один звонок, 80 млрд руб. — ущерб за один квартал. Телефонное мошенничество перестало быть кустарным промыслом и превратилось в высокотехнологичную индустрию с собственными R&D-отделами, KPI и почти нулевым порогом входа. Злоумышленники научились подделывать не просто голоса, а наши самые глубокие эмоциональные триггеры. Разбираемся в экономике криминального AI: как дешевые нейросети генерируют миллиардные убытки и почему ваш голос — это новая нефть для преступников.

350 млн руб. за один звонок, 80 млрд руб. — ущерб за один квартал. Телефонное мошенничество перестало быть кустарным промыслом и превратилось в высокотехнологичную индустрию с собственными R&D-отделами, KPI и почти нулевым порогом входа. Злоумышленники научились подделывать не просто голоса, а наши самые глубокие эмоциональные триггеры. Разбираемся в экономике криминального AI: как дешевые нейросети генерируют миллиардные убытки и почему ваш голос — это новая нефть для преступников.


Охота за голосами

Масштаб потерь поражает: только в первом квартале 2025 года сумма ущерба от телефонных мошенников в России составила 80 млрд руб. Как считают эксперты, к концу года цифра может вырасти до 350 млрд руб. По данным заместителя директора по продуктам VisionLabs Татьяны Дешкиной, злоумышленники массово звонят россиянам под видом сотрудников исследовательских организаций и центров социологических исследований.

Схема проста: мошенники представляются социологами, задают длинные вопросы и удерживают жертву на линии, а ничего не подозревающие люди предоставляют исчерпывающий набор данных, поэтому подделка получается максимально реалистичной. И речь идет не только о пенсионерах или домохозяйках: топ-менеджеры тоже не застрахованы от обмана. Президент Ассоциации банков России Анатолий Козлачков рассказал, что его голосом, сгенерированным машиной, «пугали один очень солидный банк».

Другая популярная схема строится на поддельных объявлениях о поиске актера озвучки для рекламы и фильмов. Собранные дата-сеты голосов злоумышленники используют для обучения нейросетей. По данным исследования Angara Security, количество таких объявлений выросло с 1,2 тыс. в 2021 году до 7 тыс. в 2023.

Обычно, когда говорят о клонировании голоса, все сводят к простой формуле: достаточно 30 сек. записи — и нейросеть сделает подделку. Но чтобы понять, почему мошенники так активно используют эту технологию, стоит заглянуть внутрь процесса.

Артем Сенцов

Артем Сенцов

сооснователь ClearPic AI

«Нейросеть не просто копирует звуки, она раскладывает речь на фундаментальные компоненты. Представьте, что она анализирует аудиозапись и преобразует ее в спектрограмму — это, по сути, визуальный отпечаток звука, показывающий, как меняются частоты во времени. Именно эта спектрограмма и содержит уникальные характеристики голоса: тембр, скорость, манеру произношения гласных и согласных».

Затем, благодаря обучению на огромных массивах данных, модель подстраивается под голос конкретного человека и начинает генерировать похожие спектрограммы. Финальный этап — вокодер, превращающий эту цифровую картинку в слышимую речь.

Сегодняшние модели пошли еще дальше. Если раньше требовались часы студийной записи, то появление few-shot и zero-shot подходов снизило порог до нескольких секунд. Это может быть фрагмент интервью, выступления на конференции или даже приветствие на автоответчике.

Артем Сенцов

Артем Сенцов

сооснователь ClearPic AI

«Для более сложных атак, где требуется имитировать не только тембр, но и вашу специфическую манеру говорить — с характерными паузами, словами-паразитами, эмоциональными перепадами — данных потребуется больше, от пяти до 15 минут. Причем важно не только количество, но и разнообразие: записи, где вы говорите спокойно, взволнованно, задаете вопросы».

Различие между технологиями тоже имеет значение. Voice cloning стремится максимально точно воспроизвести голос конкретного человека. Voice conversion позволяет трансформировать речь одного диктора так, чтобы она звучала голосом другого. А speech synthesis создает речь по тексту, не обязательно копируя чей-то голос, но делая ее естественной.

Для естественного звучания deepfake злоумышленники добавляют эффекты плохой связи и фоновые шумы — разговоры или шум проезжающих машин. В комбинированных схемах поддельный голос совмещается с изображением для создания фальшивых профилей в мессенджерах.

Экономика мошенничества

Финансовая сторона этой индустрии зачастую выглядит еще более тревожно, чем техническая. Если еще несколько лет назад создание реалистичного дипфейка требовало серьезных вычислительных ресурсов и узкоспециализированных знаний, то сегодня ситуация радикально изменилась.

Как отмечает Артем Сенцов, «человек с базовыми техническими навыками может развернуть систему за один вечер». В открытом доступе десятки готовых библиотек и моделей, многие из которых распространяются бесплатно. Коммерческие API с функцией клонирования голоса стоят буквально считанные доллары — доступный SaaS для любого, кто готов заплатить абонентскую плату в пределах $20–50 в месяц.

Затраты на запуск атаки минимальны: набор аудио, доступ к модели и каналы распространения. Прибыль же может исчисляться миллионами долларов, а схема легко масштабируется — один и тот же инструмент можно использовать на десятках и сотнях жертв. Именно поэтому телефонное мошенничество с элементами deepfake растет не линейно, а экспоненциально.

На этом фоне мошеннические схемы приобретают черты полноценного бизнеса. Сегодняшние мошеннические группы — это транснациональные, многоуровневые структуры, построенные по лекалам IT-корпораций. В них есть свои HR-отделы, вербующие исполнителей через даркнет, R&D-подразделения, тестирующие новые AI-модели и сценарии социальной инженерии, и, конечно, «финансовые департаменты», специализирующиеся на отмывании средств через криптовалютные миксеры и цепочки подставных счетов.

В правоохранительных органах отмечают, что ядро таких групп часто находится за пределами России, в то время как исполнители нижнего звена (прозвонщики и дропы для вывода денег) могут быть набраны из местного населения.

Такая структура обеспечивает поразительную гибкость. В случае провала одной ячейки или блокировки группы счетов основная управляющая компания остается невредимой и просто запускает новый проект с другими исполнителями.

Технологический ответ

Финансовый сектор и IT-индустрия не остаются в роли пассивных жертв: банки и технологические компании формируют новый контур защиты. Ключевым элементом становятся системы голосовой биометрии, работающие «на лету». В отличие от стандартного антифрода, который анализирует трансакцию, эти системы в реальном времени проверяют голос клиента во время разговора с кол-центром или при подтверждении операции.

Продвинутые алгоритмы способны отличать живую речь от синтезированной по микроскопическим артефактам, не улавливаемым человеческим ухом, а также использовать технологию liveness detection, запрашивая у клиента произнесение случайной фразы, что крайне сложно для большинства существующих моделей клонирования.

Параллельно идет работа на межоператорском уровне. Ведущие банки, телеком-операторы и ФинЦЕРТ Банка России ведут пилотные проекты по созданию единой платформы для верификации вызовов. Идея в том, чтобы в момент звонка система автоматически сверяла, действительно ли вызов инициирован с официального, защищенного номера кредитной организации. Это своего рода цифровой сертификат подлинности для телефонного звонка. Пока такие системы находятся на стадии внедрения, но в перспективе двух-трех лет они могут стать серьезным барьером для массовых атак.

На законодательном уровне обсуждается введение штрафов для телеком-операторов за пропуск звонков с подменных номеров и ужесточение ответственности за несанкционированный сбор и использование биометрических данных, включая голос. Российский опыт коррелирует с мировыми трендами. В США Федеральная торговая комиссия (FTC) запустила программу Voice Cloning Challenge, предлагая вознаграждение за разработку лучших систем детекции дипфейков. В Евросоюзе в рамках AI Act вводятся строгие требования к маркировке сгенерированного контента.

Новая реальность доверия

Мошенники виртуозно играют на человеческих эмоциях. Голосовое сообщение — формат, к которому больше всего доверия, так как жертва слышит голос человека. Если в речи нет настораживающих моментов, повода для недоверия нет.

Часто жертвами мошенников становятся дети. 14-летний школьник из Ачинска в мае 2025 года перевел мошенникам почти 3 млн руб. — все сбережения родителей. Преступники запугали ребенка, представившись сотрудниками «Госуслуг» и правоохранительных органов, убедив его, что родителям грозит арест за утечку персональных данных. Под диктовку «полицейских» школьник установил биометрический доступ на родительские телефоны, оформил кредит и перевел все деньги, искренне веря, что спасает семью от тюрьмы.

Авиация в 2017 году находилась в том же состоянии, что и автомобильная промышленность, когда Маск начинал делать Tesla. Все тогда говорили: «Это что за фигня? Электрическая машина кому это надо?» Нам три года назад тоже говорили: «Водород? А что это такое? Зачем нам это надо?»

Апогеем голосового мошенничества стала рекордная кража января 2025 года. 71-летняя жительница Самарской области, бывший руководитель Корпорации развития региона и помощник экс-губернатора Владимира Артякова, отдала мошенникам 350 млн руб. и $800 тыс. — суммарно около 430 млн руб.

По словам Константина Ковалева, банки и финтех постепенно адаптируются к новой реальности. Меры защиты также включают и антифрод-системы, анализирующие нетипичные трансакции, и обучение сотрудников распознавать странное поведение клиента, и работу с уязвимыми группами — детьми, пожилыми людьми. Но он же признает: на момент, когда человек доходит до банка, он чаще всего уже под влиянием социальной инженерии.

Константин Ковалев

Константин Ковалев

сооснователь и руководитель службы безопасности банка «Точка»

«Зачастую само поведение клиента при общении с сотрудниками кредитной организации может дать подсказки о том, что он совершает действия под чьим-то влиянием. Из очевидного — нервное поведение, постоянные консультации с кем-то по телефону, отсутствие внятных объяснений о причинах совершения финансовой операции, неестественная секретность и так далее».

По мнению профессора Кембриджского университета Сандера ван дер Линдена, лучший способ справиться с deepfake — выработать у людей «мыслительные антитела» против дезинформации.

Константин Ковалев

Константин Ковалев

сооснователь и руководитель службы безопасности банка «Точка»

«Обнадеживает тренд на консолидацию государства, правоохранительной системы, бизнеса и общества вокруг решения проблемы мошенничества. Принимается много мер для борьбы с ним, однако большинство из них — это игра вдолгую, на перспективу. Поэтому ситуация может улучшиться, но без резких, скачкообразных изменений текущих трендов, а, скорее, постепенно».

Что остается пользователям? Эксперты рекомендуют подход нулевого доверия к голосовым сообщениям и звонкам. Проверка по независимому каналу, использование сервисов детекции подделок, внимание к мелким деталям речи и максимальная осторожность в ситуациях, когда на вас давят срочностью или авторитетом, становятся не паранойей, а новой цифровой гигиеной.