• Usd 68.89
  • Eur 78.52
  • Btc 3790.66 $

Редакция

editorial@incrussia.ru

Реклама

advertising@incrussia.ru

Журнал

Кто подсаживает российский бизнес на биохакинг

Кто подсаживает российский бизнес на чекапы и физиотерапию. История «Лаборатории биохакинга»

Рубрики

О журнале

Соцсети

Напишите нам

Новости

Использование искусственного интеллекта при подборе сотрудников может привести к волне дискриминации

Фото: iStock

Многие зарубежные работодатели начали использовать ИИ-технологии на собеседованиях. Американская компания HireVue разработала для этого специальную нейросеть — она наблюдает за речью, тоном голоса и лицом кандидата, а затем анализирует полученные данные и выдает рекомендацию, пишет The Conversation. Однако такой способ выбора работников, считают эксперты, может усилить неравенство и дискриминацию.


Сервис HireVue появился несколько лет назад в США. С тех пор его постепенно внедряют в свою работу большие интернациональные компании. Сейчас разработкой пользуются около 700 крупных брендов, среди них — Vodafone, Hilton и Urban Outfitters. В Великобритании, например, HireVue начали использовать только в сентябре.

Создатели HireVue говорят, что их технология позволяет ускорить процесс найма на 90%, — искусственный интеллект обрабатывает информацию о кандидате практически мгновенно. Однако они замалчивают важные риски, о которых нужно помнить, проводя интервью при помощи искусственного интеллекта, пишет The Conversation.

База данных, на которую ориентируется искусственный интеллект HireVue, содержит около 25 тыс. единиц информации о мимике, физиогномике, тоне голоса и манере речи людей. Все эти данные представляют собой набор знаний об интервью с «успешными кандидатами». Нейросеть проанализировала тысячи черт лица, чтобы отбирать только «идеальных» сотрудников.

Критики технологии отмечают: основная проблема сервиса HireVue заключается в том, что он не создан в «идеальном обществе». Решения, которые принимает искусственный интеллект, основываются на человеческих предрассудках. Данные, по которым алгоритмы «учатся» оценивать кандидатов, созданы живыми людьми и содержат массу стереотипов.

Профессор Калифорнийского университета Лос-Анджелеса Софья Ноубл в своей книге «Алгоритмы угнетения» показала, что даже простой поиск в Google выдает ответы, переполненные предрассудками. Например, при поиске по запросу «стиль профессора» Google Images показывает изображения белых мужчин среднего возраста. Аналогичные результаты отображаются и при запросе «успешный менеджер». С другой стороны, при поиске по ключевым словам в духе «домашнее хозяйство» Google показывает исключительно фотографии женщин.

Искусственный интеллект работает с большими массивами информации из открытых источников. Пример, проиллюстрированный Софьей Ноубл, показывает, что сегодня опора на них способствует консолидации, увековечиванию и, возможно, даже усилению существующих предубеждений. По этой самой причине, считают эксперты, люди должны подвергнуть сомнению точность решений, принятых искусственным интеллектом на собеседованиях. Его решения могут быть консервативными и оставлять мало места для инноваций и социального прогресса.

Ранее Inc. рассказывал, что искусственный интеллект будет определять мошенников в приложениях для знакомств. Нейросеть будет анализировать профили, сообщения и фотографии на сайтах знакомств, чтобы распознать типичные схемы «развода» в интернете.