Новости

Указание на ошибки провоцирует пользователей соцсетей распространять еще больше фейков, доказали в MIT

Кажется, что вежливое указание на ошибки должно побудить автора в следующий раз внимательнее отнестись к качеству информации, которую он публикует. Но в реальности все работает наоборот, доказали ученые Массачусетского технологического института (MIT). Они проанализировали поведение 2 тыс. пользователей и выяснили, что даже тактичное указание на неточности приводит к публикации еще большего количества дезинформации.

В ходе исследования группа ученых провела эксперимент в Twitter. Для начала они отобрали 2 тыс. пользователей платформы. Все они придерживались разных политических взглядов, но каждый из них опубликовал одну из 11 фейковых новостей, которые были опровергнуты ресурсом Snopes.com.

Один из примеров ― новость о том, что Дональд Трамп якобы пытался выселить из дома ветерана, который завел собаку в терапевтических целях.

Затем исследовательская группа создала серию учетных записей Twitter-ботов, каждая из которых существовала не менее трех месяцев и набрала не менее 1 тыс. подписчиков. Поэтому казалось, что это настоящие аккаунты, которыми управляют реальные люди.

После обнаружения твита с какой-либо из 11 фейковых новостей боты отвечали автору и публиковали сообщение следующего содержания: «Я не уверен в этой статье ― это может быть фейком. Я нашел ссылку на Snopes, в которой опровергается этот факт». В сообщении также содержалась ссылка на корректный источник.

В результате авторы исследования обнаружили, что публичные исправления не повышали качество последующих ретвитов.

Наоборот, после комментария бота автор продолжал публиковать ложную информацию и с еще более издевательскими текстами, чем раньше. Независимо от политических взглядов, на публичные исправления ретвитов реагировали все пользователи одинаково.

Мохсен Мослех,

соавтор работы, научный сотрудник MIT Sloan

«То, что мы обнаружили, не воодушевило. После того как пользователей поправляли, они ретвитили новости, которые были значительно ниже по качеству и были более предвзяты, а их ретвиты при этом содержали более издевательский текст».

Языковую токсичность ученые оценивали через Google Jigsaw Perspective ― сервис, который использует глубокое машинное обучение для поиска токсичных сообщений.

По словам Дэвида Рэнда, профессора MIT Sloan, по всей видимости, на этот эффект прежде всего оказала влияние публичность исправлений. Видя открытое указание на ошибку, пользователи склонны воспринимать его как критику и проявлять агрессию.

В статье ученых отмечается, что такой эффект не наблюдается в частной переписке. Кроме того, более эффективной стратегией против фейков может стать просто распространение правдивой информации ― без атаки на конкретные сообщения и попытки уличить в неточности конкретных пользователей, говорит Рэнд.

При этом он отмечает, что конкретные стратегии борьбы с дезинформацией в соцсетях должны стать предметом дополнительных исследований. «В следующих работах нам необходимо изучить, как формировать исправления, чтобы максимизировать их действие», ― говорит он.