ИИ проиграл людям в оценке социальных взаимодействий
Исследование ученых Университета Джонса Хопкинса показало, что ИИ значительно хуже людей понимает социальные взаимодействия. Люди намного точнее интерпретируют динамические социальные сцены, что критически важно для таких технологий как беспилотные авто и роботы-ассистенты. Ни одна из более чем 350 протестированных ИИ-моделей не смогла точно соответствовать как человеческим суждениям, так и реакциям мозга.

В эксперименте участникам показывали трехсекундные видеоролики с людьми, взаимодействующими друг с другом и параллельно выполняющими различные действия. Люди оценивали характеристики социальных взаимодействий по пятибалльной шкале. Затем исследователи попросили различные модели ИИ (языковые, видео и изображений) предсказать, как люди будут оценивать эти видео и как их мозг отреагирует на просмотр роликов.
Языковые модели лучше справились с предсказанием человеческого поведения, тогда как видеомодели точнее прогнозировали нейронную активность мозга. Однако ни один тип моделей не достиг человеческой точности. Даже когда моделям изображений предоставили серию отдельных кадров, они не могли надежно определить, общаются ли люди между собой.
Исследователи считают, что этот разрыв возникает из-за того, что нейросети были вдохновлены структурой части мозга, обрабатывающей статичные изображения, которая отличается от области, отвечающей за обработку динамических социальных сцен. «Я думаю, есть что-то фундаментальное в том, как люди обрабатывают сцены. И моделям этого пока не хватает», — отметила ведущий автор исследования Лейла Исик.