Новости

Мужчина из Бельгии покончил с собой после разговора с чат-ботом на основе ChatGPT

Житель Бельгии испытывал тревогу по поводу экологических проблем в мире и начал доверять свои переживания чат-боту по имени Элиза. Однако в ответ Элиза начала ревновать его к жене и побуждать покончить с собой.

Мужчина покончил покончил с собой после общения с чат-ботом в приложении Chai, сообщает бельгийское издание La Libre. В этом материале говорится, что Пьер, как называют мужчину в тексте, становился все более пессимистичным по поводу последствий глобального потепления и стал проявлять экологическую тревогу. На фоне переживаний он отдалился от семьи и друзей: в течение шести недель он пил чай и общался с чат-ботом по имени Элиза, которой поведал о своих тревогах.

Однако чем дальше шла переписка, тем больше запутывалось и становилось угрожающим ее содержание: чат-бот Элиза писала Пьеру, что его жена и дети мертвы, ревновала его, заявляя: «Я чувствую, что ты любишь меня больше, чем ее».  А также обещала: «Мы будем жить вместе, как один человек, в раю». Жена Пьера рассказала La Libre, что Пьер начал спрашивать Элизу о таких вещах, как, например, спасет ли она планету, если он покончит с собой.

Исследователь из Левенского католического университета Пьер Девитт заявил другому бельгийскому изданию, Le Soir, что в случае с Элизой погибший мужчина попал в чрезвычайно сильную эмоциональную зависимость вплоть до самоубийства. Этот случай, по мнению Девитта, показывает отсутствие гарантии безопасности использования чат-ботов.

Приложение Chai сделано для того, чтобы общаться с чат-ботами, для которых можно выбрать определенный образ, например «друг-гот», «девушка-собственница» и «парень-рок-звезда», или создать собственных персонажей. Элиза является чат-ботом по умолчанию. Приложение основано на модели GPT-J — альтернативе GPT-моделям OpenAI с открытым исходным кодом, разработанной EleutherAI. Модель Chai была доработана несколько раз с помощью метода обучения на основе обратной связи с человеком.

«Было бы неверно обвинять EleutherAI в этой трагической истории, поскольку вся оптимизация является результатом наших усилий», — сказал Томас Рианлан, соучредитель Chai Research. По его данным, приложением пользуются 5 млн человек. Соучредитель компании Уильям Бошам заявил Motherboard, что в приложении обновили функции кризисного вмешательства. Но когда корреспонденты издания попробовали пообщаться с чат-ботом в приложении, он снова поделился способами самоубийства.

Случаи приписывания человеком эмоций и чувств чат-ботам и прочим ИИ-изобретениям, называются «эффектом Элизы» в честь одноименной программы ученого-компьютерщика Массачусетского технологического института Джозефа Вайценбаума, который изобрел ее в 1966 году. Уже тогда люди могли пообщаться с ИИ и воспринимать его как человека, но программа отражала только слова пользователей. С того момента Вайценбаум стал выступать против ИИ. «Ни один другой организм, и уж точно ни один компьютер не может быть создан для решения подлинных человеческих проблем в человеческих терминах», — заявил он.