Разработка НИУ ИТМО в области распознавания лжи по видеозаписи с помощью искусственного интеллекта заинтересовала Роскомнадзор. На данный момент прототип работает только с английским языком. Его протестировали на роликах кандидатов в Сенат США. В ведомстве допускают, что система поможет с выявлением дипфейков.
Для подведомственного Роскомнадзору Главного радиочастотного центра (ГРЧЦ) разрабатывают сервис на основе искусственного интеллекта Expert. Он позволит проверять видеозаписи выступлений на предмет лжи и манипуляций. За решение отвечают специалисты Национального центра когнитивных разработок (НЦКР) ИТМО, сообщает «Коммерсант» со ссылкой на источников. Информацию подтвердили в ведомстве.
Один из собеседников газеты рассказал, что прототип представили Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ в июле 2022 года. На нем присутствовал глава ведомства Андрей Липов, которого заинтересовало решение.
Глава Научно-технического центра ФГУП ГРЧЦ Александр Федотов уточнил, что с помощью сервиса можно анализировать видеозаписи на предмет лжи и оперативно выявлять дипфейки (deepfake). Под дипфейками понимается метод синтеза данных, с помощью которого можно менять элементы изображения в оригинальных видео. Это позволяет создавать фейковые записи.
В ИТМО пояснили, что система Expert анализирует видео и аудио и при этом оценивает уровень уверенности, агрессии, конгруэнтности (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивости у говорящего. Слова сравниваются с научными статьями и высказываниями других специалистов.
Пока что система работает только с английским языком. Его выбрали из-за наибольшей распространенности в мире. По словам разработчиков, адаптация системы к русскому языку «стоит в ближайших планах».
Руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов рассказал, что систему протестировали в преддверии выборов в Сенат США. По словам Басова, в выступлениях трех из шести кандидатов система обнаружила скрытую агрессию, а одного из них удалось «уличить во лжи».
Это не первое подобное решение от российских разработчиков. В компании VisionLabs сообщили, у них есть детектор дипфейков лиц и точность его работы варьируется от 94% до 100%.
Собеседник «Коммерсанта» на IT-рынке считает, что оценить качество работы нейросети можно только в плоскости теории вероятности. Когда разработка дойдет до пилотной эксплуатации, будет высок риск ложных результатов. Чтобы проект начал приносить пользу, потребуются годы, полагает собеседник.
Кирилл Ляхманов из «ЭБР» и вовсе раскритиковал идею анализа «правдивости» или «ложности» утверждений по косвенным признакам. Он подчеркнул, что в большинстве стран любые виды «детекторов лжи» не признаются судами в качестве доказательств.
Узнайте больше
В середине августа «Сбер» запатентовал две технологии, которые помогают в выявлении дипфейков. Разработку планируют использовать для борьбы с фейковыми новостями, а также для защиты от кибератак во время видеоконференций.