Facebook заблокировал южнокорейского чат-бота Lee Luda из-за гомофобных и высказываний и использования языка ненависти, пишет The Guardian.
Популярный южнокорейский чат-бот Lee Luda имитировал общение от лица 20-летней студентки. Его заблокировали после жалоб пользователей — люди рассказали, что ИИ использует язык ненависти в отношение ЛГБТ и инвалидов.
За двадцать дней, что бот проработал в Facebook, он успел пообщаться с 750 тыс. пользователей. Lee Luda был создан сеульским стартапом Scatter Lab, руководство которого принесло публичные извинения.
Scatter Lab,
официальное заявление компании
«Мы приносим свои извинения за дискриминационные высказывания в отношении меньшинств. Это не отражает позицию нашей компании, и мы продолжаем модернизацию бота, чтобы такие случаи не повторялись».
В Scatter Lab говорят, что боту, как и людям, потребуется время, чтобы «должным образом социализироваться». Lee Luda снова заработает в Facebook после того, как разработчики «исправят её слабые места».
Lee Luda поразила пользователей глубиной и естественностью своих ответов, взятых из 10 млрд реальных разговоров между молодыми людьми, использующими приложение KakaoTalk — самого популярного мессенджера Южной Кореи.
Но не все высказывания бота понравились пользователям. Например, в одном из разговоров Lee Luda заявила, что «действительно ненавидит» лесбиянок и назвала их «жуткими».
Бот также стал мишенью для манипулятивных пользователей: на корейских форумах публикуются советы о том, как вовлечь Lee Luda в разговоры о сексе.
Это не первый случай, когда ИИ стал причиной скандала из-за языка ненависти. В 2016 году Microsoft Tay, чат-бот для Twitter, который разговаривал как подросток, был отключен всего через 16 часов после начала работы. Пользователи манипулировали им для публикации расистских твитов.
Два года спустя ИИ-инструмент для рекрутинга от Amazon постигла та же участь, когда его признали виновным в гендерной предвзятости.