Разобраться • 21 ноября 2024

Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии

Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии

Текст: Индира Жарова, руководитель агентства видеоновостей Ruptly

Фото: GuerrillaBuzz, Unsplash


В эпоху стремительного развития технологий, когда один из основных инструментов передачи информации — видеоконтент, возникает проблема отличия подлинных видео от дипфейков. Дипфейк (от англ. deep learning — глубинное обучение, fake — подделка) — это метод синтеза контента посредством машинного обучения и искусственного интеллекта. Для его создания не требуется много информации, достаточно лишь фотографии, видео или записи голоса человека, далее — дело за нейросетью. Как злоумышленники используют технологию в своих целях и можно ли обезопасить себя от них, разобралась для Inc. руководитель российского агентства видеоновостей Ruptly Индира Жарова.

Количество фейковых видео, порождающих ложные инфоповоды, стремительно растет, они становятся все более правдоподобными, их все более сложно выявить. Если ранее эта технология использовалась для развлечения публики интригующим контентом о селебрити, то в текущей мировой обстановке она задействуется с целью влияния на политику, для манипулятивных действий и дезинформирования общественности.

С их распространением возникает все больше попыток дискредитации влиятельных личностей. Если не освещать эту проблему в информационных источниках и не продумывать эффективные схемы противодействия, в дальнейшем такие видео и вовсе смогут стать угрозой национальной и международной безопасности.

С чего все началось

Главным виновником стал искусственный интеллект и его быстро развивающиеся возможности в создании подобных видео. В числе первых ИИ-моделей, посредством которых создавались первые дипфейки, стала уже всем известная GAN — генеративно-состязательная нейросеть, разработанная в 2014 году американским айтишником Яном Гудфеллоу и его командой. Производительность этой модели поддерживается двумя конкурирующими нейронными сетями — «генератором» случайных реалистичных изображений и «дискриминатором», который отделяет фейковые материалы от подлинных.

Создание дипфейка включает в себя несколько этапов: сбор данных, обучение модели и итоговую реализацию. Для начала требуется большое количество изображений и/или видео человека, который будет заменен на подделке. Затем генератор и дискриминатор обучаются на этих данных, чтобы лучше воспроизводить лицо или голос человека. После обучения модель способна заменять лицо одного человека лицом другого в видео или аудио с высокой степенью реализма.

Первые сгенерированные с помощью ИИ дипфейки появились в 2017 году. Тогда резонансный кейс с применением усовершенствованной технологии связывали с пользователем, опубликовавшим на Reddit несколько интимных роликов с участием фальшивых обнаженных звезд — Скарлетт Йоханссон, Эммы Уотсон и других. Год спустя в сети появилось поддельное видео с Бараком Обамой: он произносил речь и назвал президента Дональда Трампа «полным идиотом». Этот ролик с использованием дипфейк-технологии показывает, насколько реалистичными могут быть подделки и как с их помощью можно манипулировать общественным мнением. Видео было создано американским актером Джорданом Пилом и медиакомпанией BuzzFeed с целью показать опасность дипфейков.

В 2019 году дипфейк-манипуляции оказался подвержен соучредитель и главный исполнительный директор Meta* (признана экстремистской организацией на территории России) Марк Цукерберг. В фейковом видео он «заявил» о том, как контролирует украденные данные миллионов пользователей.

Сегодня, благодаря автоматизации и доступности инструментов для широкой аудитории, процесс создания компрометирующего контента стал значительно проще. Существует множество приложений, позволяющих синтезировать дипфейки с минимальными техническими знаниями, например DeepFaceLab, FaceSwap, Reface и многие другие. На Youtube можно легко найти туториалы, в которых доходчиво объясняется, как пользоваться подобными программами. То есть при желании сделать дипфейк может любой пользователь интернета. Но качество и убедительность будет зависеть от того, сколько пользователь будет обучаться работе с ИИ, и от количества контента с лицом человека, который он «скормит» нейросети.

Так, дипфейк по простому гайду с Youtube вряд ли будет выглядеть достоверно. Но при должном усердии, изучении более продвинутых функций на форумах и обработке большого количества контента может получиться то, что некоторым пользователям будет довольно сложно отличить от реальности. Такие работы, можно сказать, уже профессионалов, естественно, распознать сложнее.

Чьих рук дело?

Сегодня дипфейки создаются различными группами и индивидуальными пользователями по всему миру. Широко распространены инструменты для их создания, появилось множество приложений, от креативных и развлекательных до опасных и этически сомнительных. Вот основные категории людей и организаций, активно создающих дипфейки. Определим, кто составляет наибольшую угрозу общественной безопасности.

1. Технологические компании и исследовательские организации.

  • Корпорации. Некоторые крупные технологические компании, такие как Facebook* (принадлежит Meta, признаной экстремистской организацией на территории России), Google, и Microsoft, занимаются исследованием технологий, связанных с дипфейками, как для их создания, так и для разработки инструментов, способных их обнаруживать. Эти исследования часто направлены на улучшение генеративных моделей и на поиск способов борьбы с дезинформацией.
  • Академические учреждения. Университеты и исследовательские лаборатории изучают технологии глубокого обучения, лежащие в основе дипфейков. Они могут создавать дипфейки для исследований в области искусственного интеллекта и машинного обучения.

2. Энтузиасты и программисты.

  • Индивидуальные разработчики. С развитием технологий глубокого обучения и доступностью мощных компьютеров многие энтузиасты могут создавать свои собственные дипфейки. Для этого в интернете существует множество открытых инструментов и библиотек.
  • Сообщества в интернете. Вокруг создания дипфейков сформировались активные сообщества, которые делятся инструментами, обучающими материалами и готовыми видео. Некоторые из них активно поддерживают создание дипфейков как форму цифрового творчества, другие специализируются на менее этичном применении.

3. Креативные и развлекательные индустрии.

  • Представители творческих профессий. Некоторые из них применяют дипфейки для создания цифрового искусства, фильмов и рекламных роликов. Они могут использовать эту технологию для замены лиц актеров, создания новых персонажей или оживления умерших знаменитостей на экране. Например, в семейной комедии «Манюня: Приключения в Москве» авторы воссоздали внешность и голос покойного актера Юрия Никулина с помощью искусственного интеллекта и превратили сгенерированную модель в полноценного персонажа фильма. Со слов продюсера Гевонда Андреасяна, родственники Никулина разрешили использовать образ артиста в киноленте и отнеслись к этой идее как к увековечению памяти близкого. Однако такие эксперименты зачастую вызывают критику. 
  • Контент-креаторы. Пользователи платформ вроде TikTok и YouTube активно используют дипфейк-технологии для создания развлекательного контента, пародий и других видео. Примером может служить популярный дипфейк-аккаунт DeepTomCruise в TikTok.

4. Злоумышленники и мошенники.

  • Киберпреступники-шантажисты. Злоумышленники могут использовать дипфейки для шантажа, дискредитации или дезинформации в поддельных видео с участием политиков, бизнесменов или частных лиц, чтобы нанести вред их репутации или обмануть аудиторию. Таким образом можно легко подорвать общественную безопасность и манипулировать населением.
  • Мошенники. В некоторых случаях дипфейки используются для финансового мошенничества. Например, недавний громкий инцидент с Ларисой Долиной не обошелся без участия нейросетей. В эфире «Первого канала» представитель певицы Сергей Пудовкин сообщил, что мошенники, жертвой которых стала народная артистка, использовали сгенерированное нейросетью изображение для обращения в микрокредитную организацию.

5. Политические организации и государства.

  • Государственные структуры. В некоторых случаях дипфейки используются в рамках информационных войн и пропаганды. Государственные акторы могут создавать поддельные видео, чтобы влиять на общественное мнение, дискредитировать оппонентов или сеять дезинформацию.
  • Активисты и хактивисты. Они могут использовать дипфейки для привлечения внимания к определенным социальным или политическим вопросам, хотя это способно вызвать спорные реакции, связанные с вопросами этики. 

Методы регулирования

За последнее время появляется все больше новостей о дипфейках в отношении отечественных политических деятелей: директор департамента информации и печати МИД России Мария Захарова в фейковом видеоролике сделала ложное заявление о готовности России передать Запорожскую АЭС Украине в обмен на уход ВСУ из Курской области, а врио главы Курской области Алексей Смирнов «призывал» мужскую часть населения региона явиться в военкомат для получения оружия.

По словам экспертов Ruptly, по дипфейку с врио главы Курской области Алексеем Смирновым можно понять, что его делал любитель. При создании ролика не использовалась замена лица, а только небольшое изменение мимики под другую речь. Но и оно не очень хорошо удалось. В видео можно заметить джамп-кат (это вид склейки двух похожих фрагментов, который обычно используется, когда необходимо вырезать моменты, где герой видео оговорился или задумался: человек в кадре один и тот же, его речь будто бы не прерывается, но движение героя обрывается и резко меняется) буквально на середине фразы и повторяющиеся, будто зацикленные действия Смирнова. Качество видео тоже стало хуже, так что, скорее всего, использовалась бесплатная программа для его создания. Липсинг (синхронизация движения губ и звукового ряда) часто отстает или совсем не совпадает со словами. Мимика также выглядит порой неорганично.

На этом фоне вновь обсуждаются меры против создания и распространения ложной информации в формате дипфейков. Основная проблема в том, что ни в одной стране нет закона об ответственности создателей дипфейков и не регламентировано устранение фальшивых видео. Закон об авторском праве может действовать как эффективное средство регулирования дипфейков, но он еще недостаточно для этого доработан. Также актуален вопрос о защите прав умерших личностей и основаниях использования их голоса и образа.

Если дипфейк рассматривать как результат интеллектуальной деятельности, созданной программой, то, по отечественному законодательству, автором является только тот гражданин, творческим трудом которого создан этот результат (ст. 1228 ГК РФ). А правообладателем может быть лишь человек или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (ст. 1229 ГК РФ). Таким образом, за любой техникой должны стоять физическое или юридическое лицо, иначе объект авторского права не будет релевантен.

На данный момент проблема дипфейков регулируется несколькими путями. В первую очередь — государством. Особенно эффективен это способ в отношении лиц, дискредитирующих армию и распространяющих ложную информацию о действиях Вооруженных сил Российской Федерации. Такое нарушение преследуется законом (ст. 280.3 УК РФ) и предается публичной огласке. Так, весной прошлого года за фейки об армии был арестован российский режиссер Иван Вырыпаев. Второй способ борьбы с синтетическими видео — экспертная оценка специалистов отдела верификации видеоконтента. Например, в Ruptly такое подразделение есть. Эксперты получают новость, обрабатывают ее с помощью внутренней технологии верификации контента и на выходе публикуют актуальную информацию, не противоречащую правдивой повестке.

Как себя обезопасить

Помимо специалистов, научиться отличать подлинное видео от фейкового необходимо и обычным интернет-пользователям. В первую очередь стоит обратить внимание на мимику человека.

  • Совпадает ли движение губ с речью? Часто в подобных видео можно заметить либо рассинхрон, либо полное непопадание в липсинг в определенные моменты.
  • Посмотрите на глаза. Моргает ли человек на видео? Может быть, он делает это слишком часто или будто в перемотке назад? А может быть, совсем не моргает? Двигаются ли зрачки? Похоже ли их движение на естественное? С помощью ИИ до сих пор нельзя достаточно реалистично воспроизвести моргание, так что это может быть одним из ключевых показателей того, что перед вами дипфейк.
  • Волосы на голове, борода, усы или родинки также могут быть плохо отображены в дипфейках. Выглядит ли растительность на лице мужчин натуральной? Также часто в дипфейках бывают проблемы с зубами и бликам в очках.
  • Деформация лица также одна из особенностей, которой часто грешат нейросети. Иногда лоб может выглядеть больше, чем в реальности, глаз или бровь могут «улетать» в положение, которое анатомически невозможно.

Полностью обезопасить себя от создания дипфейков с вашим лицом можно только одним способом — не загружать свои фото/видео в социальные сети. Однако для достоверного дипфейка с вами злоумышленникам нужно достаточно много контента (поэтому дипфейки с актерами и другими известными личностями выходят порой такими правдоподобными). Поэтому шанс, что с вами выйдет убедительный дипфейк, тем меньше, чем меньше фото и видео с собой вы публикуете.

Дипфейки — один из самых ярких примеров, как стремительное развитие технологий одновременно может открывать новые горизонты для творчества и создавать серьезные угрозы для общества. С одной стороны, они расширяют спектр возможностей в индустрии развлечений, рекламы и искусства, предлагая невиданные ранее способы взаимодействия с аудиторией.

С другой стороны, их использование с целью политических манипуляций, кибермошенничества и нарушения конфиденциальности подчеркивает необходимость ответственного подхода к таким технологиям. Чтобы предотвратить злоупотребления, важно разрабатывать не только методы для создания дипфейков, но и эффективные инструменты для их выявления и регулирования.

Сейчас распознавание дипфейков развито не настолько, чтобы мгновенно выявлять ложный контент. К сожалению, приходится учиться на негативном опыте, чтобы предотвращать дальнейшее развитие необратимых последствий. В условиях, когда границы между реальностью и вымыслом становятся все более размытыми, ответственность за использование таких мощных инструментов лежит на каждом из нас — от разработчиков и медиа до простых пользователей интернета. В борьбе с этой проблемой важно в первую очередь активно знакомиться с новостной повесткой, пользоваться простыми алгоритмами выявления дипфейков, предоставленными экспертами, и доверять только проверенным источникам информации.