Новости

Российским соцсетям могут дать право замораживать вирусные дипфейки

Главный радиочастотный центр Роскомнадзора предложил соцсетям самостоятельно выявлять и ограничивать распространение дипфейков еще до официального подтверждения подлинности контента. Инициативу озвучил заместитель начальника отдела специальных проектов НТЦ ФГУП ГРЧЦ Станислав Махортов на форуме «Технологии доверенного искусственного интеллекта».

Stanislav Vlasov/Unsplash

Речь идет прежде всего о вирусном контенте, который быстро набирает просмотры и распространяется быстрее обычных новостных поводов. По задумке ГРЧЦ, платформы могли бы временно ограничивать распространение таких материалов до подтверждения их подлинности у доверенных источников — например, у организаций или людей, фигурирующих в ролике или аудиозаписи.

В Роскомнадзоре пояснили, что обсуждается сразу несколько мер. Среди них — создание базы технологических угроз, развитие систем обмена данными между государством и бизнесом, а также обязательная маркировка ИИ-контента до его публикации.

Участники рынка при этом предупреждают, что технически задача остается крайне сложной. Представитель одной из крупных ИТ-компаний отметил, что при нынешних объемах видео и изображений в соцсетях стопроцентно определить происхождение контента невозможно. Ошибки при автоматической модерации неизбежны, а значит платформы столкнутся с ростом жалоб и юридических споров.

Эксперты считают, что полностью автоматизировать проверку дипфейков в ближайшее время не получится. Сейчас платформы используют комбинированные методы: анализ изображения и аудио, поиск цифровых водяных знаков, проверку метаданных и отслеживание подозрительного распространения контента. Однако современные генеративные модели быстро учатся обходить такие фильтры.

Как регулируют дипфейки в ЕС

В Евросоюзе дипфейки уже попали в рамки регулирования AI Act. Статья 50 закона об ИИ обязывает маркировать соответствующий контент и раскрывать факт использования искусственного интеллекта при создании или изменении фото, видео и аудио. Отдельно в документе прописаны требования к дипфейк-контенту и синтетическим публикациям общественной значимости.

Еврокомиссия также разрабатывает отдельный кодекс практики по маркировке ИИ-контента. Предполагается, что он поможет платформам внедрять единые механизмы обнаружения и обозначения дипфейков.

Некоторые страны ЕС идут еще дальше. Например, Испания уже подготовила законопроект с крупными штрафами за публикацию AI-контента без маркировки. Размер санкций может достигать 35 млн евро или 7% глобальной выручки компании.

Что происходит в США

В США единого федерального закона о дипфейках пока нет, однако регулирование постепенно ужесточается. Федеральная торговая комиссия (FTC) еще в 2024 году предложила расширить правила против мошеннической имитации личности — в том числе с использованием ИИ-генерации голоса и видео.

Отдельные штаты уже вводят собственные ограничения — прежде всего в сфере политической рекламы и предвыборных материалов. Крупные платформы также усиливают внутренние правила маркировки ИИ-контента и синтетических медиа на фоне роста числа политических и мошеннических дипфейков.

Эксперты отмечают, что и в ЕС, и в США регуляторы постепенно переходят от обсуждения самих технологий к контролю за распространением контента и ответственности платформ. Но универсального решения проблемы пока не существует. Генеративные модели развиваются быстрее, чем инструменты их обнаружения.


Подпишитесь на «Инк» в Telegram. Там мы пишем нескучным языком о самом важном для предпринимателей. Подписаться.