Каждый второй россиянин рискует столкнуться с дипфейк-атакой до конца года
Эксперты в области искусственного интеллекта предупредили, что к концу 2025 года с дипфейк-атаками может столкнуться каждый второй житель России. Если сейчас основная угроза исходит от поддельных голосовых сообщений и видеокружков в мессенджерах, то уже к 2026 году мошенники начнут активно использовать дипфейк-звонки, имитируя голоса знакомых жертвы. Раньше создание правдоподобных подделок требовало серьезных навыков, но с развитием ИИ технология становится доступной даже для непрофессионалов.
По данным MTS AI, если несколько лет назад с дипфейками сталкивались лишь 10% пользователей, то к концу этого года их доля может вырасти до 50%. В 2024–2025 гг. основными инструментами мошенников остаются фальшивые видеокружки и голосовые сообщения, но вскоре злоумышленники смогут в реальном времени разыгрывать сценарии с «попросившей о помощи дочерью» или «коллегой, срочно требующим перевода денег». Современные дипфейки настолько совершенны, что даже опытные пользователи не всегда способны отличить их от реальности.
В MTS AI пояснили, что видеокружки и голосовые сообщения представляют особую опасность, поскольку, в отличие от телефонных звонков, у них нет надежных способов проверки источника. Невозможно определить, были ли они созданы внутри мессенджера или загружены извне, что делает их идеальным инструментом для мошенников. Технологии подделки голосов и видео стремительно развиваются: если раньше создание убедительных фейков требовало времени, то теперь это стало доступно практически любому.
Уже зафиксированы случаи, когда мошенники использовали дипфейки для крупных хищений. Так, пенсионер из Москвы перевел 1,5 млн руб. «секретарю мэра» и «Сергею Собянину» после видеозвонка с человеком, внешне похожим на градоначальника. В апреле 2025 года глава Кемерова Дмитрий Анисимов предупредил горожан о фальшивых видео с его участием, распространяемых через мессенджеры.
СЗ, приложения для знакомств и другие пути
Другая распространенная схема — знакомства в приложениях с последующим переходом в Telegram, где мошенники используют поддельные голосовые сообщения и видео. Например, одна из жертв перевела несколько миллионов рублей мужчине, выдававшему себя за американца, хотя на самом деле он был выходцем из Африки.
Эксперты подчеркивают, что сами по себе технологии дипфейков нейтральны, но их использование преступниками становится все проще. По словам руководителя направления исследования данных в «Лаборатории Касперского» Дмитрия Аникина, для создания видеоподделок требуется большое количество изображений жертвы под разными углами, а голосовые фейки могут быть менее стабильными. Однако мошенники маскируют недостатки, например, используя размытые видеокружки без звука, чтобы усыпить бдительность.
Руководитель портфеля продуктов Visionlabs Татьяна Дешкина добавила, что злоумышленники комбинируют разные инструменты: наложение лиц на видео, клонирование голосов и даже разработку собственных приложений для дообучения нейросетей.
Точное количество жертв дипфейк-атак неизвестно, так как пострадавшие чаще всего обращаются за помощью только в надежде вернуть деньги. В MTS AI призвали пользователей сохранять бдительность и критически оценивать неожиданные просьбы о переводах, даже если они поступают от «знакомых».