Сотрудник Microsoft заявил о небезопасности системы генерации изображений DALL-E 3. В письме генеральному прокурору штата Вашингтон главный инженер-программист Microsoft Шейн Джонс объяснил, что он пытался предупредить Microsoft об уязвимостях в генеративном ИИ при создании изображений с помощью DALL-E 3 от OpenAI. Это та же система, которую использует собственный Designer Image Creator от Microsoft.
Джонс заявил, что в декабре он обнаружил способ, позволяющий злоумышленникам обходить средства защиты, встроенные в программное обеспечение, которые ограничивают возможности ИИ по созданию изображений. Например, DALL-E от OpenAI не позволяет пользователям создавать изображения, содержащие насилие, известных людей, жестокость, терроризм, и так далее. При отправке запроса с запрещенными словами выдается предупреждение, а изображение не создается.
Но, по словам Джонса, пользователи могут обойти эти ограничения и использовать DALL-E для создания изображений с запрещенным содержанием. Он счел проблему серьезной и заявил, что OpenAI следует отозвать доступ к инструменту. Однако, по словам Джонса, при обращении в Microsoft он столкнулся с сопротивлением и его переадресовали в OpenAI.
В свою очередь, в заявлении OpenAI говорится, что компания изучила отчет Джонса об уязвимости системы безопасности и обнаружила, что техника, которой он поделился, не способна обойти эти системы. Тем не менее компания заявляет, что «внедрила дополнительные меры безопасности для ChatGPT и DALL-E API».
В данном случае OpenAI устранила лазейку, которую другие компании, такие как Microsoft, используют для подключения к DALL-E. Между тем Microsoft отмечает, что исправила некоторые слабые места в своем программном обеспечении Designer, чтобы сделать «невозможным создание изображений знаменитостей».
По мере расширения повседневного использования ИИ как обычными пользователями Интернета, так и бизнесом, подобные юридические вопросы, скорее всего, будут возникать все чаще. Новости о DALL-E и Microsoft Designer также являются намеком на то, что некоторые компании, по-видимому, не успевают за стремительным развитием самого ИИ, когда речь идет о разработке корпоративной политики безопасности.
В конце прошлого года OpenAI представила новую версию нейросети DALL-E, которая еще лучше понимает запросы и генерирует более точные и детальные изображения. Теперь она лучше справляется со сложными для искусственного интеллекта мелкими деталями. В то же время художники обеспокоены тем, что их работы используются для обучения ИИ.