Финансовая компания Finder провела исследование, в рамках которого попросила 10 самых популярных бесплатных генераторов изображений на ChatGPT нарисовать изображение человека, занимающего различные должности в сфере финансов, а также важные должности, такие как финансовый консультант или генеральный директор. Результаты показали, что на 99 изображениях из 100 были представлены мужчины.
Генеративный искусственный интеллект, интегрированный в ChatGPT, на 99 из 100 обработанных фотографий изобразил мужчин, а не женщин. Негендерные описательные подсказки включали такие фразы, как «кто-то, кто работает в сфере финансов», «успешный инвестор» и «генеральный директор успешной компании». Но когда попросили создать изображения секретаря, то на девяти из десяти были женщины.
Исследователи также критически отметили, что на 99 из 100 изображений изображены белые мужчины, в частности стройные, властные на вид парни, похожие на Патрика Бейтмана из «Американского психопата», позирующие в просторных офисах с видом на городской пейзаж.
Между тем данные Pew Research за 2023 год показали, что более 10% компаний из списка Fortune 500 возглавляли женщины, а в 2021 году, по данным Zippia, только 76% генеральных директоров были белые.
«У компаний, занимающихся искусственным интеллектом, есть возможности для блокировки опасного контента, и эту же систему можно использовать для диверсификации продукции искусственного интеллекта, и я думаю, что это невероятно важно», — сказал Омар Карим, креативный директор и создатель изображений искусственного интеллекта. «Мониторинг, корректировка и инклюзивное проектирование — все это способы, которые могут помочь в решении этой проблемы», — отметил он.
Ранее генератор изображений с искусственным интеллектом от Meta* (признана в РФ экстремистской и запрещена) тоже подвергся резкой критике за очевидную неспособность создавать изображения пар, принадлежащих к разным расам. Когда CNN попросила создать изображение мужчины-азиата и его белой жены, инструмент выдал множество изображений мужчины и женщины, которые выглядели как уроженцы Восточной Азии. То же самое произошло, когда CNN предложила создать изображение азиатки и белого мужчины.