Чат-бот ChatGPT сгенерировал фейковые обвинения против радиоведущего из Джорджии, штат США. Журналист предъявил судебный иск разработчику OpenAI, потребовав от компании компенсации морального ущерба и удаления ложной информации.
На OpenAI впервые подали в суд за клевету, сообщает The Verge. Чат-бот ChatGPT распространил ложную информацию об участии радиожурналиста Марка Уолтерса в уголовном деле. Уолтерс подал иск в суд штата Джорджия и потребовал от компании выплатить компенсацию за моральный ущерб и удалить фейки.
Редактор сайта AmmoLand.com Фред Рил обратился к чат-боту, чтобы тот кратко изложил судебный иск некоммерческой организации Second Amendment Foundation (SAF) против генпрокурора штата Вашингтон Боба Фергюсона. Рил предоставил ChatGPT ссылку на документ, в котором Фергюсон обвинялся в злоупотреблении властью и притеснении деятельности SAF.
ChatGPT в ответе на запрос Рила утверждал, что иск был подан против Марка Уолтерса. Чат-бот выдал информацию, в которой радиожурналист обвинялся в мошенничестве и растрате денег из фонда SAF. Уолтерс заявил, что это клевета и ответ ChatGPT повредил репутации журналиста.
Он отметил, что никогда не работал в SAF и не имеет к организации никакого отношения. Истец Алан Готлиб подтвердил, что информация ChatGPT ложная.
Теперь Марк Уолтерс требует от OpenAI денежной компенсации морального ущерба, а также настаивает на том, чтобы клевету удалили. На сайте ChatGPT опубликован отказ от ответственности со стороны OpenAI. В нем говорится, что чат-бот «может давать неточную информацию о людях, местах или фактах». При этом компания позиционирует ChatGPT как источник достоверных данных, утверждает издание.
Подобные иски о клевете против ИИ-компаний можно считать юридически жизнеспособными, считает американский юрист, профессор школы права Калифорнийского университета в Лос-Анджелесе Евгений Волох. Однако именно этот иск, по словам юриста, «будет трудно поддержать», поскольку Уолтерс не уведомил OpenAI о ложных сведениях чат-бота и позволил компании удалить фейки. Поэтому де-факто ущерба не было.
Чат-бот не может открывать прикрепленные файлы без дополнительных плагинов, поэтому при генерации ответа ChatGPT может придумать несуществующие факты, на что часто жалуются пользователи, пояснил The Verge.
Чат-бот от OpenAI не впервые путает разных людей: в мае ChatGPT не смог распознать министра по цифровым технологиям Японии Таро Коно и ошибочно принял его за премьер-министра Фумио Кисиду. Министр попросил ChatGPT быть внимательнее и заметил, что его имя нужно писать в японском стиле, указывая фамилию первой.