Новости

Meta*, TikTok и Snap стали участвовать в программе по борьбе с контентом, связанным с суицидом и членовредительством

Meta* (запрещена на территории РФ) запустила Thrive, совместный проект с Психиатрической коалицией по охране психического здоровья (MHC) для обмена информацией о контенте, связанном с членовредительством и суицидами. Snap и TikTok также присоединяются к этой инициативе. Программа будет использовать хеш-коды для защиты конфиденциальности пользователей, сообщая только о содержании изображений и видео. Meta* обещает уделять особое внимание графическому контенту и материалам, связанным с суицидом.

Дэн Рейденберг, директор Thrive и управляющий директор Национального совета по предотвращению самоубийств, будет курировать операционные процессы данной инициативы, помогая организовать и отслеживать ее деятельность. Участвующие компании обязаны загружать, проверять и реагировать на контент, размещаемый через Thrive, а также готовить ежегодный отчет о влиянии программы.

«Мы в MHC рады начать сотрудничество с Thrive — уникальным проектом, который объединил ведущие социальные сети для борьбы с материалами, связанными с самоубийствами и самоповреждениями», — отметил Кеннет Коул, основатель MHC. «Meta*, Snap и TikTok — первые платформы, присоединившиеся к совместным усилиям для достижения значимого эффекта и спасения жизней».

Платформа X, которая явно не отличается высоким уровнем модерации контента, не участвует в данной программе. Данные показывают, что платформа X имеет значительно меньший штат модераторов по сравнению с другими социальными сетями. Генеральный директор Илон Маск сократил примерно 80% инженеров, занимающихся вопросами доверия и безопасности.

В начале года X объявила о планах создать центр передового опыта в Остине, штат Техас, но в итоге, как сообщают источники, компания наняла гораздо меньше модераторов, чем планировалось. Google, которому принадлежит YouTube, также не участвует в Thrive. YouTube оказался в центре внимания из-за неспособности защитить пользователей от контента, направленного на причинение вреда самому себе. Исследование, проведенное летом 2024 года Институтом стратегического диалога, показало, что YouTube с готовностью рекомендует подросткам видео, поощряющие или оправдывающие самоубийство.

Однако это не значит, что у компаний Meta*, Snap и TikTok дела идут лучше: сотни исков, один из них подан Нью-Йорком, обвиняют эти технологические компании в том, что они способствуют кризису психического здоровья. Два года назад британский регулирующий орган в судебном решении признал Instagram*, принадлежащий Meta*, виновным в самоубийстве 14-летней девочки, на этой платформе столкнувшейся с контентом, направленным на вред своему здоровью.

Исследования указывают на наличие причинно-следственной связи между частым использованием социальных сетей и ухудшением психоэмоционального состояния, особенно депрессией и тревожностью. Большинство из них предполагает, что активные пользователи социальных медиа значительно чаще испытывают депрессию по сравнению с теми, кто использует их реже, и имеют негативное восприятие себя, особенно в отношении своей физической привлекательности.

Ранее WhatsApp обвинили в том, что в мессенджере отсутствуют механизмы, сдерживающие распространение изображений сексуального насилия над детьми. Фонд Internet Watch Foundation (IWF) призвал компанию Meta* (запрещена и признана экстремистской на территории РФ), которой принадлежит WhatsApp, принять меры для защиты несовершеннолетних пользователей и внедрить соответствующие механизмы.