Разобраться • 21 ноября 2024
Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии
Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии
Текст: Индира Жарова, руководитель агентства видеоновостей Ruptly
Фото: GuerrillaBuzz, Unsplash
В эпоху стремительного развития технологий, когда один из основных инструментов передачи информации — видеоконтент, возникает проблема отличия подлинных видео от дипфейков. Дипфейк (от англ. deep learning — глубинное обучение, fake — подделка) — это метод синтеза контента посредством машинного обучения и искусственного интеллекта. Для его создания не требуется много информации, достаточно лишь фотографии, видео или записи голоса человека, далее — дело за нейросетью. Как злоумышленники используют технологию в своих целях и можно ли обезопасить себя от них, разобралась для Inc. руководитель российского агентства видеоновостей Ruptly Индира Жарова.
Количество фейковых видео, порождающих ложные инфоповоды, стремительно растет, они становятся все более правдоподобными, их все более сложно выявить. Если ранее эта технология использовалась для развлечения публики интригующим контентом о селебрити, то в текущей мировой обстановке она задействуется с целью влияния на политику, для манипулятивных действий и дезинформирования общественности.
С их распространением возникает все больше попыток дискредитации влиятельных личностей. Если не освещать эту проблему в информационных источниках и не продумывать эффективные схемы противодействия, в дальнейшем такие видео и вовсе смогут стать угрозой национальной и международной безопасности.
Главным виновником стал искусственный интеллект и его быстро развивающиеся возможности в создании подобных видео. В числе первых ИИ-моделей, посредством которых создавались первые дипфейки, стала уже всем известная GAN — генеративно-состязательная нейросеть, разработанная в 2014 году американским айтишником Яном Гудфеллоу и его командой. Производительность этой модели поддерживается двумя конкурирующими нейронными сетями — «генератором» случайных реалистичных изображений и «дискриминатором», который отделяет фейковые материалы от подлинных.
Создание дипфейка включает в себя несколько этапов: сбор данных, обучение модели и итоговую реализацию. Для начала требуется большое количество изображений и/или видео человека, который будет заменен на подделке. Затем генератор и дискриминатор обучаются на этих данных, чтобы лучше воспроизводить лицо или голос человека. После обучения модель способна заменять лицо одного человека лицом другого в видео или аудио с высокой степенью реализма.
Первые сгенерированные с помощью ИИ дипфейки появились в 2017 году. Тогда резонансный кейс с применением усовершенствованной технологии связывали с пользователем, опубликовавшим на Reddit несколько интимных роликов с участием фальшивых обнаженных звезд — Скарлетт Йоханссон, Эммы Уотсон и других. Год спустя в сети появилось поддельное видео с Бараком Обамой: он произносил речь и назвал президента Дональда Трампа «полным идиотом». Этот ролик с использованием дипфейк-технологии показывает, насколько реалистичными могут быть подделки и как с их помощью можно манипулировать общественным мнением. Видео было создано американским актером Джорданом Пилом и медиакомпанией BuzzFeed с целью показать опасность дипфейков.
В 2019 году дипфейк-манипуляции оказался подвержен соучредитель и главный исполнительный директор Meta* (признана экстремистской организацией на территории России) Марк Цукерберг. В фейковом видео он «заявил» о том, как контролирует украденные данные миллионов пользователей.
Сегодня, благодаря автоматизации и доступности инструментов для широкой аудитории, процесс создания компрометирующего контента стал значительно проще. Существует множество приложений, позволяющих синтезировать дипфейки с минимальными техническими знаниями, например DeepFaceLab, FaceSwap, Reface и многие другие. На Youtube можно легко найти туториалы, в которых доходчиво объясняется, как пользоваться подобными программами. То есть при желании сделать дипфейк может любой пользователь интернета. Но качество и убедительность будет зависеть от того, сколько пользователь будет обучаться работе с ИИ, и от количества контента с лицом человека, который он «скормит» нейросети.
Так, дипфейк по простому гайду с Youtube вряд ли будет выглядеть достоверно. Но при должном усердии, изучении более продвинутых функций на форумах и обработке большого количества контента может получиться то, что некоторым пользователям будет довольно сложно отличить от реальности. Такие работы, можно сказать, уже профессионалов, естественно, распознать сложнее.
Сегодня дипфейки создаются различными группами и индивидуальными пользователями по всему миру. Широко распространены инструменты для их создания, появилось множество приложений, от креативных и развлекательных до опасных и этически сомнительных. Вот основные категории людей и организаций, активно создающих дипфейки. Определим, кто составляет наибольшую угрозу общественной безопасности.
1. Технологические компании и исследовательские организации.
2. Энтузиасты и программисты.
3. Креативные и развлекательные индустрии.
4. Злоумышленники и мошенники.
5. Политические организации и государства.
За последнее время появляется все больше новостей о дипфейках в отношении отечественных политических деятелей: директор департамента информации и печати МИД России Мария Захарова в фейковом видеоролике сделала ложное заявление о готовности России передать Запорожскую АЭС Украине в обмен на уход ВСУ из Курской области, а врио главы Курской области Алексей Смирнов «призывал» мужскую часть населения региона явиться в военкомат для получения оружия.
По словам экспертов Ruptly, по дипфейку с врио главы Курской области Алексеем Смирновым можно понять, что его делал любитель. При создании ролика не использовалась замена лица, а только небольшое изменение мимики под другую речь. Но и оно не очень хорошо удалось. В видео можно заметить джамп-кат (это вид склейки двух похожих фрагментов, который обычно используется, когда необходимо вырезать моменты, где герой видео оговорился или задумался: человек в кадре один и тот же, его речь будто бы не прерывается, но движение героя обрывается и резко меняется) буквально на середине фразы и повторяющиеся, будто зацикленные действия Смирнова. Качество видео тоже стало хуже, так что, скорее всего, использовалась бесплатная программа для его создания. Липсинг (синхронизация движения губ и звукового ряда) часто отстает или совсем не совпадает со словами. Мимика также выглядит порой неорганично.
На этом фоне вновь обсуждаются меры против создания и распространения ложной информации в формате дипфейков. Основная проблема в том, что ни в одной стране нет закона об ответственности создателей дипфейков и не регламентировано устранение фальшивых видео. Закон об авторском праве может действовать как эффективное средство регулирования дипфейков, но он еще недостаточно для этого доработан. Также актуален вопрос о защите прав умерших личностей и основаниях использования их голоса и образа.
Если дипфейк рассматривать как результат интеллектуальной деятельности, созданной программой, то, по отечественному законодательству, автором является только тот гражданин, творческим трудом которого создан этот результат (ст. 1228 ГК РФ). А правообладателем может быть лишь человек или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (ст. 1229 ГК РФ). Таким образом, за любой техникой должны стоять физическое или юридическое лицо, иначе объект авторского права не будет релевантен.
На данный момент проблема дипфейков регулируется несколькими путями. В первую очередь — государством. Особенно эффективен это способ в отношении лиц, дискредитирующих армию и распространяющих ложную информацию о действиях Вооруженных сил Российской Федерации. Такое нарушение преследуется законом (ст. 280.3 УК РФ) и предается публичной огласке. Так, весной прошлого года за фейки об армии был арестован российский режиссер Иван Вырыпаев. Второй способ борьбы с синтетическими видео — экспертная оценка специалистов отдела верификации видеоконтента. Например, в Ruptly такое подразделение есть. Эксперты получают новость, обрабатывают ее с помощью внутренней технологии верификации контента и на выходе публикуют актуальную информацию, не противоречащую правдивой повестке.
Помимо специалистов, научиться отличать подлинное видео от фейкового необходимо и обычным интернет-пользователям. В первую очередь стоит обратить внимание на мимику человека.
Полностью обезопасить себя от создания дипфейков с вашим лицом можно только одним способом — не загружать свои фото/видео в социальные сети. Однако для достоверного дипфейка с вами злоумышленникам нужно достаточно много контента (поэтому дипфейки с актерами и другими известными личностями выходят порой такими правдоподобными). Поэтому шанс, что с вами выйдет убедительный дипфейк, тем меньше, чем меньше фото и видео с собой вы публикуете.
Дипфейки — один из самых ярких примеров, как стремительное развитие технологий одновременно может открывать новые горизонты для творчества и создавать серьезные угрозы для общества. С одной стороны, они расширяют спектр возможностей в индустрии развлечений, рекламы и искусства, предлагая невиданные ранее способы взаимодействия с аудиторией.
С другой стороны, их использование с целью политических манипуляций, кибермошенничества и нарушения конфиденциальности подчеркивает необходимость ответственного подхода к таким технологиям. Чтобы предотвратить злоупотребления, важно разрабатывать не только методы для создания дипфейков, но и эффективные инструменты для их выявления и регулирования.
Сейчас распознавание дипфейков развито не настолько, чтобы мгновенно выявлять ложный контент. К сожалению, приходится учиться на негативном опыте, чтобы предотвращать дальнейшее развитие необратимых последствий. В условиях, когда границы между реальностью и вымыслом становятся все более размытыми, ответственность за использование таких мощных инструментов лежит на каждом из нас — от разработчиков и медиа до простых пользователей интернета. В борьбе с этой проблемой важно в первую очередь активно знакомиться с новостной повесткой, пользоваться простыми алгоритмами выявления дипфейков, предоставленными экспертами, и доверять только проверенным источникам информации.