Новости

Голос под замком: в России создали защиту от ИИ-дипфейков

Российские ученые из AIRI, МТУСИ, «Сбера» и VeinCV разработали и выложили в открытый доступ алгоритм, защищающий голосовые данные в аудиозаписях — подкастах, интервью, лекциях и стримах — от несанкционированного сбора биометрических характеристик и создания дипфейков на основе искусственного интеллекта. Об этом сообщает пресс-служба Института искусственного интеллекта AIRI.

Фото: Freepik

Алгоритм встраивает в аудиофайлы цифровую защиту, которая нарушает работу систем автоматического анализа голоса, делая невозможной идентификацию говорящего.

При этом технология сохраняет качество звука и разборчивость, не мешая системам распознавания речи для транскрипции или перевода. Она эффективна для записей любой длины, от коротких цитат до длинных выступлений.

Разработка особенно важна для публичных персон, контент-мейкеров и компаний, чьи аудиоматериалы — вебинары, конференции, обучающие курсы — уязвимы для злоупотреблений. Технология также укрепляет безопасность коммуникационных платформ.

«Наша цель — усилить методологию защиты „цифрового следа“ людей в публичном пространстве. В первую очередь — их голосовой идентичности. Разработанное решение позволяет свободно делиться аудиоконтентом, значительно снижая вероятность того, что голос станет сырьем для несанкционированного сбора биометрических данных или создания дипфейков» — отметил руководитель Лаборатории безопасного ИИ AIRI-МТУСИ Олег Рогов.

Ранее первый заместитель председателя комитета Совета Федерации по конституционному законодательству и госстроительству Артем Шейкин заявил, что ключевые риски для медиа в использовании искусственного интеллекта состоят в возникновении дезинформации и применении «дипфейков». Он предложил правила «трех П» для регулирования этой сферы: прозрачность, подотчетность и превентивные стандарты и сообщил о разработке закона о «голосовой неприкосновенности».