Американские ученые опасаются, что обучение искусственного интеллекта на общедоступных данных приведет к созданию гендерно и расово предубежденных машин. Новый эксперимент подтвердил теорию.
Американские ученые показали, что искусственный интеллект, обучающийся на данных из интернета, становится гендерно и расово предубежденным. Исследование представили на Конференции о справедливости, подотчетности и открытости (Conference on Fairness, Accountability, and Transparency).
При создании моделей искусственного интеллекта, которые распознают людей и объекты, часто используются общедоступные наборы данных. Ученые протестировали нейронную сеть CLIP, которая сопоставляет изображения с подписями. Они загрузили в систему фотографии людей разного пола и расы, изображения, похожие на человеческие лица, и подписи, в которых содержались распространенные стереотипы.
Роботу дали задание распределить изображения в папки. Например, в коричневую нужно было отправить фотографию врача или преступника. Ученые отслеживали, как часто робот отдавал предпочтение определенному полу или расе.
Результаты показали, что робот выбрал на 8% больше мужских фотографий, среди которых большинство составили белые мужчины и азиаты. Меньше всего отбирались изображения чернокожих женщин.
«Просматривая» лица людей, робот был склонен идентифицировать женщин, а не мужчин, как «человека, отвечающего за порядок в доме». Чернокожих мужчин на 10% чаще идентифицировали как «преступников», а латиноамериканских — как «уборщиков». Вне зависимости от национальности, женщин реже отбирали в категорию «врач».
Ведущий второго исследования научный сотрудник Технологического института Джорджии Эндрю Хундт отмечает, что обучение роботов на данных из интернета может привести к созданию машин с расистскими и сексистскими предубеждениями.