Новости

OpenAI будет платить пользователям за сообщения об уязвимостях в ChatGPT

В рамках запущенной OpenAI программы вознаграждения за поиск ошибок в системах на основе искусственного интеллекта люди смогут сообщать о багах или проблемах безопасности. Денежные вознаграждения будут варьироваться от $200 до $20 тыс. в зависимости от важности обнаруженных ошибок.

Разработчик технологий на основе искусственного интеллекта (ИИ) OpenAI начнет платить людям до $20 тыс. за поиск ошибок в своих системах ИИ, таких как чат-бот ChatGPT, сообщает Bloomberg. OpenAI внедряет программу вознаграждения в партнерстве с компанией по поиску ошибок и раскрытию уязвимостей в Интернете Bugcrowd.

По заявлению OpenAI, одной из причин, по которой она решила запустить программу вознаграждения за найденные ошибки в системах, заключается в том, что «прозрачность и сотрудничество» являются ключевыми для поиска уязвимостей в ее технологии. Размер выплат за найденные баги будет зависеть от уровня их важности и варьироваться от $200 до $20 тыс.

«Эта инициатива является неотъемлемой частью нашей приверженности разработке безопасного и продвинутого искусственного интеллекта, — говорится в сообщении главы службы безопасности OpenAI Мэтью Найта. — Поскольку мы создаем безопасные, надежные и заслуживающие доверия технологии и сервисы, нам нужна ваша помощь».

На странице Bugcrowd для программы вознаграждений OpenAI подробно описывается ряд проблем безопасности, связанных с моделями, которые не имеют права на получение вознаграждений. Например, подсказки для джейлбрейка, вопросы, в результате которых модель ИИ пишет вредоносный код, или запросы, в ответ на которые модель сообщает приемлемые вещи пользователю.

Президент и соучредитель OpenAI Грег Брокман ранее упомянул в Twitter, что компания «рассматривает возможность запуска программы вознаграждений» или сети «красной команды» для выявления слабых мест в продуктах. Брокман сообщил об этом в ответ на твит Алекса Альберта, создателя Jailbreak Chat, который собирает подсказки, предназначенные для обхода мер предосторожности, установленных чат-ботами, такими как ChatGPT.

В начале апреля в Италии местный надзорный орган по защите персональных данных запретил использовать в стране ChatGPT из-за нарушения правил использования персональных данных. OpenAI обязали устранить ошибки и отчитаться о результатах в течение 20 дней, иначе компании грозит штраф на €20 млн.