Microsoft создала искусственный интеллект для своего сервиса видеоконференций Teams, который должен облегчить выступления людей в дистанционном формате, подсвечивая положительные реакции их слушателей. Об этом пишет New Scientist.
ИИ, получивший название AffectiveSpotlight, идентифицирует участников видеозвонка и использует нейронную сеть для определения таких эмоций, как грусть, счастье и удивление, по выражению их лиц. Он также учитывает движения головы (покачивание и кивание) и положение бровей.
Каждое выражение лица ИИ оценивает в диапазоне от 0 до 1 баллов, если реакция положительная, оценка выше. Каждые 15 секунд для ведущего подсвечивается человек, который получил самый высокий балл за этот период времени.
Представитель Microsoft Research сказал New Scientist, что «внимание к откликам слушателей позволяет выступающему лучше понять аудиторию и создаёт цепь обратной связи». В ходе опроса 175 человек, проведённого командой, 83% из тех, кто выступает с онлайн-презентациями, сказали, что они часто пропускают релевантные реакции аудитории — особенно невербальные сигналы.
Чтобы понять, может ли AffectiveSpotlight решить эту проблему, команда сравнила его работу с работой ПО, которое подсвечивало участников видеоконференции рандомно. Во время выступления AffectiveSpotlight подсветил только 40% слушателей, ПО — 87%. После эксперимента спикеры сообщили, что им больше понравилось выступать с AffectiveSpotlight, несмотря на то что слушатели не заметили разницы в качестве презентации.
Руа Уильямс, доцент кафедры компьютерной графики и дизайна в Университете Пердью, сомневается в пользе ИИ для онлайн-выступлений.
«Сомнительно, что интерпретация, основанная только на аудио или видео, или на том и другом, когда-либо была точной», — сказала она. — Хотя в некоторых исследованиях, подобных этому, могут упоминаться вопросы конфиденциальности и согласия, ни одно из них никогда не объясняет, как кто-то может оспорить неточную интерпретацию своих эмоций».