Новости

Совет по надзору заявил, что Meta* должна перестать обрабатывать и публиковать эротику, созданную ИИ

После расследования того, как Meta* (запрещена на территории РФ) обрабатывает откровенные изображения, созданные ИИ, полунезависимый наблюдательный орган компании, Совет по надзору, теперь призывает компанию пересмотреть свою политику в отношении таких изображений, сообщает TechCrunch.

Совет хочет, чтобы Meta* изменила используемую терминологию с «унизительной» на «несогласованную» и перенесла свои правила в отношении таких изображений в раздел «Стандарты сообщества по сексуальной эксплуатации» из раздела «Издевательства и домогательства».

В настоящее время политика Meta* в отношении откровенных изображений, созданных ИИ, выходит за рамки правила «унизительного сексуализированного Photoshop» в разделе «Издевательства и притеснения». Совет также призвал Meta* заменить слово «Photoshop» на обобщающий термин для манипуляций с медиа.

Кроме того, Meta* запрещает неконсенсуальные изображения, если они «некоммерческие или сделаны в частной обстановке». Совет предложил, чтобы этот пункт не был обязательным для удаления или запрета изображений, созданных ИИ или обработанных без согласия.

Эти рекомендации появились после двух случаев, когда откровенные, сгенерированные искусственным интеллектом изображения общественных деятелей, размещенные в Instagram* и Facebook* (принадлежат Meta*), привели к скандалу.

Один из этих случаев касался сгенерированного ИИ изображения обнаженной индийской публичной фигуры, которое было размещено в Instagram*. Несколько пользователей сообщили об этом изображении, но Meta* не удалила его и фактически закрыла заявку в течение 48 часов без дальнейшего рассмотрения.

Пользователи обжаловали это решение, но заявка снова была закрыта. Компания приняла меры только после того, как надзорный совет занялся этим делом, удалил контент и забанил аккаунт.

Другое изображение, сгенерированное ИИ, напоминало публичного человека из США и было размещено на Facebook*. Благодаря сообщениям СМИ, Meta* уже имела это изображение в своем хранилище Media Matching Service (MMS) (банк изображений, нарушающих условия предоставления услуг, который может быть использован для обнаружения похожих изображений) и быстро удалила его, когда другой пользователь загрузил его в Facebook*.

Примечательно, что Meta* добавила изображение индийского общественного деятеля в банк MMS только после того, как к этому подтолкнул Совет по надзору. По всей видимости, компания сказала Совету, что до этого в хранилище не было изображения, потому что в СМИ не было сообщений по этому поводу.

«Это вызывает беспокойство, поскольку многие жертвы поддельных интимных изображений не находятся в поле зрения общественности и вынуждены либо мириться с распространением их изображений, сделанных без согласия, либо сообщать о каждом случае», — говорится в записке Совета.

Breakthrough Trust, индийская организация, которая проводит кампании по сокращению гендерного насилия в Интернете, отметила, что эти вопросы и политика Meta* имеют культурные последствия. В своих комментариях, направленных в Совет по надзору, Breakthrough заявила, что изображения, сделанные не по согласию, часто воспринимаются как проблема кражи личных данных, а не гендерного насилия.

«Жертвы часто сталкиваются с вторичной виктимизацией, когда сообщают о таких случаях в полицейские участки/суды. Попав в интернет, фотография очень быстро выходит за пределы исходной платформы. Просто удалить ее на исходной платформе недостаточно, потому что она быстро распространяется на другие платформы», — написала в Совет по надзору Барша Чакраборти, руководитель медиа-отдела организации.

Как Чакраборти сказала в телефонном разговоре, пользователи часто не знают, что их сообщения автоматически помечаются как «решенные» в течение 48 часов, и Meta* не должна применять одинаковые сроки для всех случаев. Кроме того, она предложила компании поработать над повышением осведомленности пользователей о подобных проблемах.

Девика Малик, эксперт по политике платформ, ранее работавшая в команде Meta* по политике в Южной Азии, рассказала ранее в этом году, что платформы в основном полагаются на сообщения пользователей для удаления неконсенсусных изображений. Это может быть ненадежным подходом, когда речь идет о медиа, созданных ИИ.

«Это возлагает несправедливую обязанность на пострадавшего пользователя доказывать свою личность и отсутствие согласия (как в случае с политикой Meta*). Когда речь идет о синтетических медиа, это может привести к еще большему количеству ошибок, а время, затрачиваемое на сбор и проверку этих внешних сигналов, позволяет контенту набирать обороты», — говорит Малик.

Апараджита Бхарти, партнер-основатель делийского аналитического центра The Quantum Hub (TQH), считает, что Meta* должна позволить пользователям предоставлять больше контекста при сообщении о контенте, поскольку они могут не знать о различных категориях нарушений правил, предусмотренных политикой Meta*. «Мы надеемся, что Meta* пойдет дальше и выполнит окончательное решение Совета по надзору, чтобы создать гибкие и ориентированные на пользователей каналы для сообщения о контенте такого рода», — сказала она.

«Мы признаем, что от пользователей нельзя ожидать идеального понимания нюансов разницы между различными разделами отчетности, и выступаем за создание систем, которые не позволят реальным проблемам оставаться незамеченными из-за технических особенностей политики модерации контента Meta*», — добавила Бхарти. В ответ на замечание совета Meta* заявила, что пересмотрит эти рекомендации.

Ранее стало известно, что Meta* не будет выпускать продвинутую версию своей модели искусственного интеллекта в ЕС, объясняя это решение «непредсказуемым» поведением регулирующих органов. Владелец Facebook*, Instagram* и WhatsApp готовится выпустить модель Llama в мультимодальной форме, то есть она может работать с текстом, видео, изображениями и аудио, а не только с одним форматом.