Новости

Радиоведущий в США подал в суд на OpenAI за клевету ChatGPT

Чат-бот ChatGPT сгенерировал фейковые обвинения против радиоведущего из Джорджии, штат США. Журналист предъявил судебный иск разработчику OpenAI, потребовав от компании компенсации морального ущерба и удаления ложной информации.

На OpenAI впервые подали в суд за клевету, сообщает The Verge. Чат-бот ChatGPT распространил ложную информацию об участии радиожурналиста Марка Уолтерса в уголовном деле. Уолтерс подал иск в суд штата Джорджия и потребовал от компании выплатить компенсацию за моральный ущерб и удалить фейки.

Редактор сайта AmmoLand.com Фред Рил обратился к чат-боту, чтобы тот кратко изложил судебный иск некоммерческой организации Second Amendment Foundation (SAF) против генпрокурора штата Вашингтон Боба Фергюсона. Рил предоставил ChatGPT ссылку на документ, в котором Фергюсон обвинялся в злоупотреблении властью и притеснении деятельности SAF.

ChatGPT в ответе на запрос Рила утверждал, что иск был подан против Марка Уолтерса. Чат-бот выдал информацию, в которой радиожурналист обвинялся в мошенничестве и растрате денег из фонда SAF. Уолтерс заявил, что это клевета и ответ ChatGPT повредил репутации журналиста.

Он отметил, что никогда не работал в SAF и не имеет к организации никакого отношения. Истец Алан Готлиб подтвердил, что информация ChatGPT ложная.

Теперь Марк Уолтерс требует от OpenAI денежной компенсации морального ущерба, а также настаивает на том, чтобы клевету удалили. На сайте ChatGPT опубликован отказ от ответственности со стороны OpenAI. В нем говорится, что чат-бот «может давать неточную информацию о людях, местах или фактах». При этом компания позиционирует ChatGPT как источник достоверных данных, утверждает издание.

Подобные иски о клевете против ИИ-компаний можно считать юридически жизнеспособными, считает американский юрист, профессор школы права Калифорнийского университета в Лос-Анджелесе Евгений Волох. Однако именно этот иск, по словам юриста, «будет трудно поддержать», поскольку Уолтерс не уведомил OpenAI о ложных сведениях чат-бота и позволил компании удалить фейки. Поэтому де-факто ущерба не было.

Чат-бот не может открывать прикрепленные файлы без дополнительных плагинов, поэтому при генерации ответа ChatGPT может придумать несуществующие факты, на что часто жалуются пользователи, пояснил The Verge.

Чат-бот от OpenAI не впервые путает разных людей: в мае ChatGPT не смог распознать министра по цифровым технологиям Японии Таро Коно и ошибочно принял его за премьер-министра Фумио Кисиду. Министр попросил ChatGPT быть внимательнее и заметил, что его имя нужно писать в японском стиле, указывая фамилию первой.