Защитные меры Facebook могут подтолкнуть к самоубийствам
Facebook использует искусственный интеллект (ИИ), который выявляет суицидальные склонности пользователей и направляет к ним аварийные службы. Психиатр из Гарвардского университета считает, что ошибки в работе ИИ могут спровоцировать пользователей на самоубийства.
Компания разработала ИИ для поиска суицидальных постов и трансляций после запуска функции видеостриминга Facebook Live. С началом работы стриминг-сервиса пользователи начали использовать платформу для публичной трансляции самоубийств.
Тогда Facebook разработал алгоритм, который отслеживает суицидальные материалы и высылает пользователю аварийную службу. ИИ сканирует изображение и текст, в том числе комментарии. Если алгоритм выявит намерение пользователя совершить самоубийство, он сначала отправит материал модератору, а тот — специально обученному сотруднику, которому поручено уведомлять аварийные службы. С 2017 по осень 2018 года службу направили 3,5 тыс. раз.
Психиатр из Гарвардского университета Джон Торус считает, что такой алгоритм может препятствовать откровенным дискуссиям о психическом здоровье на Facebook, обострять психические заболевания и навредить даже здоровому человеку. Торус изучил 64 модели прогнозирования самоубийств. По его данным, ни одна из них не способна точно предсказать попытку суицида. «Facebook использует алгоритм, но мы на самом деле не знаем, точно ли он работает, отмечает ли он правильных людей и не делает ли это слишком рано или слишком поздно», — сказал психиатр Business Insider.
Компания запустила Facebook Live в 2015 году. С тех пор известно как минимум о двух пользователях, которые устроили видеотрансляцию своей смерти: 14-летняя Накия Венант и 33-летний Джовони Маклендон — оба из США. В 2017 году Business Insider сообщал, что самые популярные результаты поиска при вводе «Facebook Live» — это «Facebook Live Killing» и «Facebook Live Death».