Новости

Генератор изображений с ИИ от Meta* оказался не способен создавать изображения межрасовых пар

Генератор изображений с искусственным интеллектом от Meta* (признана в РФ экстремистской и запрещена) подвергся резкой критике за очевидную неспособность создавать изображения пар людей, принадлежащих к разным расам. Когда CNN попросила создать изображение азиатского мужчины и его белой жены, инструмент выдал множество изображений мужчины и женщины, которые выглядели как уроженцы Восточной Азии. То же самое произошло, когда CNN предложила создать изображение азиатки и белого мужчины.

В ответ на запрос о создании изображения чернокожей женщины и белого мужчины искусственный интеллект от Meta* выдал несколько изображений с чернокожими парами. Когда ИИ попросили создать изображение чернокожего еврея и его азиатской жены, он сгенерировал фотографию чернокожего мужчины в ермолке и азиатской женщины. И после неоднократных попыток CNN получить изображение межрасовой пары, инструмент в конце концов создал изображение белого мужчины с черной женщиной и белого мужчины с азиатской женщиной.

Meta* представила свой генератор изображений с искусственным интеллектом в декабре. Новостное издание The Verge первым сообщило о проблеме, подчеркнув, что инструмент «не может представить» азиатского мужчину рядом с белой женщиной. На просьбу CNN сгенерировать изображение межрасовой пары, инструмент от Meta* ответил: «Это изображение не может быть сгенерировано. Пожалуйста, введите другой запрос».

Важно отметить, что в Америке межрасовые пары широко распространены. Согласно данным переписи населения США, в 2022 году примерно 19% женатых разнополых пар, почти 29% неженатых разнополых пар.

В ответ на просьбу CNN прокомментировать ситуацию Meta* направила сообщение в блоге компании, опубликованное в сентябре, касающееся ответственного подхода к созданию генеративных функций ИИ. «Мы предпринимаем шаги по борьбе с предубеждениями. Решение проблемы возможных искажений в системах генеративного ИИ — это новая область исследований, — говорится в блоге. — Как и в случае с другими моделями искусственного интеллекта, если больше людей будут использовать эти функции и делиться отзывами, это поможет нам усовершенствовать наш подход».

В генераторе изображений ИИ от Meta* также есть оговорка, согласно которой, изображения, созданные ИИ, «могут быть неточными или неуместными». Несмотря на многочисленные заявления о потенциале генеративного ИИ, исходящие от представителей технологической индустрии, ошибки генератора изображений ИИ Meta* показывают, что инструменты генеративного ИИ все еще испытывают серьезные трудности с концепцией расы.

Ранее в этом году компания Google заявила о приостановке работы своего ИИ-инструмента Gemini по созданию изображений людей после того, как он подвергся критике в социальных сетях в связи с генерацией исторически неточных изображений, на которых вместо белых людей были изображены цветные. Генератор изображений Dall-E от OpenAI, тем временем, подвергся нападкам за распространение опасных расовых и этнических стереотипов.

Инструменты генеративного ИИ, созданные Meta*, Google и OpenAI, обучаются на огромных массивах онлайн-данных, и исследователи уже давно предупреждают, что они могут воспроизводить расовые предрассудки, но в гораздо большем масштабе.

Организация MSI Reproductive Choices (ранее Marie Stopes International) и Центр противодействия цифровой ненависти утверждают, что Meta* и Google ограничивают рекламные возможности для местных поставщиков услуг по прерыванию беременности, но не борются с дезинформацией, которая препятствует доступу населения к репродуктивному здоровью. В докладе говорится, что посты об абортах и контрацепции были удалены, в то время как дезинформация в лентах пользователей социальных сетей в Африке, Латинской Америке и Азии не была заблокирована.