Новости

«Псевдо-ИИ». Технологические фирмы используют сотрудников-людей, поручая им работу чатботов

Фото: iStock

Чатботы становятся все менее примитивными, а спрос на них растет. Некоторые компании считают, что использовать человеческий труд проще и дешевле, и выдают людей за роботов, пишет The Guardian.


«Использование людей для выполнения таких задач позволяет игнорировать технологические и деловые вызовы. В отличие от технологии, человек не масштабируется, но использование его труда позволяет не застопориться на ранней стадии развития проекта. По сути, это создание прототипа искусственного интеллекта», — говорит CEO ReadMe Грегори Кобергер. По его словам, он часто сталкивался с «псевдо-ИИ».

В 2008 году компанию Spinvox, которая создала сервис для конвертации речи в текст, обвинили в том, что на самом деле расшифровкой разговоров занимаются люди, а не алгоритмы.  В 2016 году Bloomberg рассказал об условиях, в которых работали сотрудники X.ai и Clara — онлайн-календарей. Выяснилось, что они притворялись чатботами по 12 часов в день. 

В 2017 году выяснилось, что Expensify, сервис для управления бизнес-расходами, тоже заменял чатботов людьми. Компания утверждала, что чеки автоматически оцифровываются при помощи технологии «умного» сканирования, но на самом деле часть квитанций вручную разбирали низкооплачиваемые сотрудники Expensify.

И если у небольших компаний зачастую просто не хватает ресурсов на качественную технологию, то IT-гиганты сталкиваются с другой проблемой. Так, Facebook выдавал своих сотрудников за виртуального ассистента M, потому что технология была несовершенна и просто не могла дать пользователям обещанное. 

В менее спорных случаях человеческий труд используется для эффективного обучения алгоритмов. Компания Scale официально нанимала сотрудников, которые помогали ИИ-системе, встроенной в беспилотный автомобиль, научиться распознавать объекты на дороге. Это была рутинная работа: сотрудники часами отмечали велосипедистов, светофоры и другие автомобили. 

Эксперты говорят, что некоторые компании нарушают все этические границы, выдавая людей за чатботов. Элисон Дарси, психолог и основатель чатбота-психолога Woebot, объясняет, что в некоторых случаях для клиента важна «нечеловечность» его собеседника. Это подтверждают результаты исследований: ученые из Университета Южной Калифорнии выяснили, что ветераны с посттравматическим расстройством охотнее говорят о своих травмах с чатботом. 


Подписывайтесь на наш канал в Telegram : @incnews