Взлететь • 2 декабря 2025
«Через пару лет вы не отличите дипфейк от оригинала». CEO aIDeepFake — о том, как защититься от новой реальности
«Через пару лет вы не отличите дипфейк от оригинала». CEO aIDeepFake — о том, как защититься от новой реальности

Автор: Григорий Щеглов
Это бесконечная гонка: одни создают все более убедительные ИИ-видео и аудио, другие учат искусственный интеллект распознавать опасные фальшивки, считает Екатерина Корнюшина, основатель и CEO aIDeepFake. Ее стартап, победивший в специальной номинации «Открытие года» от «Инк» на Startech. Awards, помогает разрабатывать решения для противодействия дипфейкам.
Мы поговорили с Екатериной о том, насколько далеко зашла технология, как отличить реальный звонок от сгенерированного, и почему голос станет объектом неимущественных прав.
Это бесконечная гонка: одни создают все более убедительные ИИ-видео и аудио, другие учат искусственный интеллект распознавать опасные фальшивки, считает Екатерина Корнюшина, основатель и CEO aIDeepFake. Ее стартап, победивший в специальной номинации «Открытие года» от «Инк» на Startech. Awards, помогает разрабатывать решения для противодействия дипфейкам.
Мы поговорили с Екатериной о том, насколько далеко зашла технология, как отличить реальный звонок от сгенерированного, и почему голос станет объектом неимущественных прав.
Григорий:
— Екатерина, как возник aIDeepFake?
Екатерина:
— Идея родилась на стыке двух наблюдений: я заметила стремительный рост качества дипфейков и, при этом, отсутствие какой-либо системной защиты от них в корпоративных коммуникациях. Мы увидели, что дипфейк-технологии выходят за рамки развлечений и становятся инструментом давления, манипуляции или подделки личности. Так что aIDeepFake — это ответ на вызов.
Григорий:
— Кто ваши основные клиенты?
Екатерина:
— Банки, телеком-операторы и крупные корпорации. Банки используют систему для защиты видеоверификации, предотвращения дипфейк-атак и усиления биометрической безопасности в KYC/AML-процессах. Телеком-операторы интегрируют решение для анализа голосовых и видеозвонков, выявления фальсификаций и защиты клиентов от социальной инженерии. Корпорации применяют платформу для внутренней безопасности, защиты цифровых коммуникаций, HR-интервью и предотвращения репутационных рисков.
Григорий:
— Насколько серьезно продвинулась технология за последние пару лет? Можно ли сказать, что через 2–3 года дипфейки станут практически неотличимы от оригинала?
Екатерина:
— К сожалению, прогресс — колоссальный. За последние два года генеративные модели перешли от визуальных артефактов к почти фотореалистичным результатам. Особенно заметен скачок в дипфейк-аудио и синхронизации речи с мимикой. Мы наблюдаем, как GAN и diffusion-модели становятся все более устойчивыми к классическим методам детекции.
Через 2–3 года грань между реальным и синтетическим может исчезнуть совсем. Это создает серьезные риски: подделка публичных заявлений, манипуляции в политике и финансах, нарушение приватности и репутации, угрозы для судебных процессов и доказательной базы.
Григорий:
— Какие данные нужны для того, чтобы создать реалистичный дипфейк? Можно ли это будет сделать в домашних условиях?
Екатерина:
— Для базового дипфейка достаточно нескольких минут видео и аудио. Но для высококачественного синтеза нужны десятки часов материала, разнообразные ракурсы, эмоции, шумы. Уже сейчас можно собрать такой датасет в домашних условиях, особенно если цель — атака на конкретного человека. Это делает угрозу массовой и доступной, особенно в контексте социальной инженерии.
Григорий:
— Насколько сложно строить эффективные детекторы в условиях, когда генеративные модели постоянно улучшаются? Успевает ли индустрия безопасности за прогрессом генерации?
Екатерина:
— Это настоящая гонка технологий. Генерация становится все более адаптивной, а детекция требует постоянного обновления архитектур, датасетов и порогов. Мы используем мультимодальные подходы — анализ видео, аудио, синхронизации, поведенческой биометрии.
Основные риски в том, что многие решения в сфере информационной безопасности плохо масштабируются, не работают в реальном времени и часто не учитывают местные языковые и культурные особенности.
Григорий:
— В книге «2041» Кая-Фу Ли есть рассказ про дипфейки через 20 лет. Там именно микроскопические несовпадения остаются главным демаскирующим фактором. Сейчас это тоже так?
Екатерина:
— Да, но с оговорками. Мы действительно ищем микроскопические расхождения — в мимике, просодии, фазе звука, тенях. Но современные модели учатся их имитировать. Поэтому мы комбинируем признаки: технические, поведенческие и контекстные. Это повышает устойчивость детекции.
Григорий:
— Что сейчас сложнее всего воспроизвести реалистично?
Екатерина:
— Самое сложное — эмоции и контекст. Синтез страха, сарказма, спонтанной реакции все еще далек от реальности. Также сложно имитировать микродвижения, дыхание, просодию в стрессовых ситуациях. Это дает нам шанс на детекцию, особенно при анализе поведенческих и физиологических несоответствий, которые трудно подделать даже с помощью продвинутых генеративных моделей.
Григорий:
— Как последние скандалы с дипфейками влияют на модерацию такого контента и нормирование отрасли? Будут ли особо уязвимых людей — политиков, звезд — защищать от этого особой системой?
Екатерина:
— Последние инциденты с дипфейками — от подделок публичных заявлений до атак на частных лиц — стали катализатором для регуляторов и платформ. Государства начинают переходить от наблюдения к действиям: Китай уже ввел обязательную маркировку синтетического контента, а в ЕС и США обсуждаются инициативы по верификации источников и внедрению цифровых водяных знаков.
Что касается защиты уязвимых групп — политиков, знаменитостей, детей — это вопрос времени. Мы в aIDeepFake ожидаем появления специализированных реестров защищенных персон, а также систем раннего оповещения и автоматической детекции попыток подделки. В перспективе — создание цифровых паспортов идентичности, которые позволят верифицировать подлинность речи и изображения в реальном времени.
В России, например, при участии сенатора Артема Шейкина внесен законопроект об охране голоса гражданина при его генерации с помощью ИИ. Документ предлагает закрепить голос как объект личных неимущественных прав и разрешать его использование, включая синтез и имитацию, только с согласия самого гражданина.
Григорий:
— Как, на ваш взгляд, изменится регулирование дипфейков в ближайшие годы?
Екатерина:
— Регулирование уже начинает формироваться — в ближайшие годы оно станет обязательным и многоуровневым. Предложены изменения в закон «Об информации», где вводится понятие синтетического видеоматериала и обязательная маркировка ИИ-контента. За отсутствие метки предусмотрены штрафы до 500 тыс. рублей.
Что это означает для индустрии? Платформы будут обязаны внедрять технологии распознавания дипфейков, вести отчетность и маркировать синтетический контент. Появятся реестры защищенных персон — политиков, звезд, детей — с автоматическим мониторингом попыток подделки. Компании, работающие с ИИ-контентом, будут обязаны соблюдать прозрачность: раскрывать методы генерации, хранить оригиналы, подтверждать авторство.
Григорий:
— Возможно ли создание универсальной системы, которая будет выявлять дипфейки любых типов, или будущее — в специализированных детекторах?
Екатерина:
— Универсальность — сложная цель. Я верю в модульный подход: ядро плюс адаптивные слои под видео, аудио, язык, сценарий. Это позволяет быстро адаптироваться к новым типам атак. Будущее — за гибкими системами, обучаемыми на локальных данных.
Григорий:
— Как вы оцениваете текущий спрос на решения, связанные с защитой от дипфейков?
Екатерина:
— Спрос растет экспоненциально. Банки, телекомы, корпорации — все сталкиваются с рисками. Особенно остро — в биометрии, верификации, HR-интервью, онлайн-обучении. Мы уже получаем целевые запросы от банков и телеком-операторов, которые ищут решения для защиты своих каналов от голосовых и визуальных фальсификаций.
В то же время медиаплатформы пока не проявляют особого интереса: отсутствие обязательной регуляторики по маркировке синтетического контента снижает их мотивацию к внедрению таких решений. Мы ожидаем, что активное движение в этом направлении начнется после принятия изменений в закон «Об информации». Для индустрии это означает переход от добровольной модерации к нормативной ответственности.
Проверки, которые компании проводят, чтобы убедиться, что клиент — реальный человек и что его операции не связаны с мошенничеством или отмыванием денег.
GAN создают изображение через соревнование двух нейросетей, где одна генерирует изображение, вторая пытается угадать, фейк это или нет. Diffusion-модели выдают результат пошагово выводя картинку из шума.