Разобраться • 11 февраля 2024

Искусство против ИИ: как технологии помогают художникам защищать свои картины от обучения нейросетей без их согласия

Искусство против ИИ: как технологии помогают художникам защищать свои картины от обучения нейросетей без их согласия

Текст: Наташа Ломас, TechCrunch

Перевод: Татьяна Казымова


В последний год для художников проблема защиты своих работ от использования для обучения моделей ИИ без их согласия стала одной из первостепенных. Большинство из них рассчитывает получать заказы и другие возможности для заработка в социальных сетях и на собственных сайтах, так что отгородиться от внешнего мира им не представляется возможным. Команда ученых Чикагского университета (США) разработала инструмент, получивший название Nightshade, который «отравляет» данные изображений, делая их непригодными для обучения нейросетей. Рассказали подробнее о проекте и проблемах художников.

Для художников защита работ от использования для обучения моделей искусственного интеллекта без согласия — задача не из простых. Запросы на отказ от использования предполагают, что компании, занимающиеся разработкой ИИ, будут действовать добросовестно, но те, для кого выгода важнее конфиденциальности, могут легко пренебречь такими мерами. Для большинства живописцев, которые рассчитывают получить комиссионные и другие возможности для работы в социальных сетях, отгородиться от внешнего мира не представляется возможным.

Как острый соус

Руководитель проекта Nightshade, профессор информатики Чикагского университета Бен Чжао сравнил разработку с острым соусом, который офисные сотрудники добавляют в обед, чтобы коллеги не украли его из общего холодильника. Он отметил, что инструмент демонстрирует тот факт, что генеративные модели в целом — всего лишь модели, а сам по себе Nightshade не задумывался как чрезвычайно мощное оружие против компаний, обучающих ИИ.

Бен Чжао

Бен Чжао,

профессор информатики Чикагского университета

«Nightshade показывает, что эти модели [нейросети] уязвимы. Это означает, что владельцы контента могут получить более серьезный инструмент защиты, чем просто писать в Конгресс или жаловаться по электронной почте или в социальных сетях».

При этом Чжао и его команда не преследуют цели уничтожить ИИ. Суть проекта — заставить технологических гигантов платить за труд художников, вместо того чтобы обучать модели ИИ, по сути, на украденных изображениях. «Реальная проблема здесь заключается в согласии художников. Мы просто даем создателям контента возможность противостоять несанкционированному использованию», — отметил он.

Nightshade нацелен на ассоциации между текстовыми подсказками, изменяя пиксели на изображениях, чтобы обмануть модели искусственного интеллекта и заставить их создавать изображения, совершенно отличные от того, что ожидает увидеть человек. ИИ будет неправильно классифицировать признаки таких изображений, и если они будут обучены на достаточном количестве «отравленных» данных, то они начнут генерировать изображения, совершенно не связанные с соответствующими запросами. Исследователи в технической статье отметили, что для этого потребуется не менее 100 «испорченных» образцов.

В качестве примера Чжао привел изображение коровы, пасущейся на лугу. Если исказить эту ассоциацию, нейросети могут подумать, что это парнокопытное животное имеет четыре колеса и бампер. И когда их попросят изобразить корову, ИИ вместо этого нарисуют большой грузовик. А если отправить измененную в Nightshade «Мону Лизу» Леонардо Да Винчи, то нейросети увидят ее в виде кошки в халате.

Хитрый ход

Ранее Бен Чжао также руководил командой, создавшей Glaze — инструмент маскировки, который искажает то, как модели ИИ видят и определяют художественный стиль, не позволяя имитировать уникальные работы художников. Как и в случае с Nightshade, человек видит реалистичный портрет углем, но модель искусственного интеллекта увидит его как абстрактную картину, а затем, при соответствующем запросе, сгенерирует беспорядочные абстрактные образы.

Художница Келли МакКернан, которая участвует в коллективном иске против Stability AI, Midjourney и DeviantArt, опубликовала в соцсети X пример своей работы, обработанной с помощью Nightshade и Glaze. На картине изображена женщина, запутавшаяся в неоновых венах, в то время как пиксельные двойники питаются ею. Они представляют собой генеративный ИИ, «пожирающий подлинный голос творческих людей».

В 2022 году, когда генераторы изображений с ИИ были запущены для широкой публики, МакКернан обнаружила массу изображений, поразительно похожих на ее работы. Когда выяснилось, что более 50 ее работ были использованы для обучения моделей ИИ, художница потеряла всякий интерес к созданию произведений искусства. МакКернан даже обнаружила свою подпись в контенте, созданном искусственным интеллектом. По ее словам, использование Nightshade является защитной мерой до тех пор, пока не будет введено адекватное регулирование. «Это похоже на сильный шторм на улице, и мне все равно нужно идти на работу, поэтому я собираюсь защитить себя и использовать прозрачный зонтик, чтобы видеть, куда я иду», — сказала МакКернан.

Большинство изменений, которые вносит Nightshade, невидимы для человеческого глаза, но разработчики отметили, что воздействие технологии более заметно на изображениях с плоскими цветами и однотонным фоном. Инструмент также доступен в режиме низкой интенсивности, который позволяет сохранить качество изображения. Как подчеркнула МакКернан, она, будучи автором, может определить, что изображение изменилось после использования Glaze и Nightshade, но для постороннего человека это «почти незаметно».

Иллюстратор Кристофер Бретц продемонстрировал влияние Nightshade на одной из своих работ, опубликовав результаты на X. Самые минимальные настройки, равно как и опции по умолчанию, мало влияли на иллюстрацию, но при более высоких настройках изменения были очевидны.

«Я экспериментировал с Nightshade всю неделю и планирую пропускать через него любую новую работу и большую часть моего старого онлайн-портфолио, — сказал Бретц. — Я знаю ряд цифровых художников, которые воздерживались от создания новых произведений искусства в течение некоторого времени, и я надеюсь, что этот инструмент придаст им уверенности, чтобы снова начать делиться своими работами».

Надежная защита

По мнению команды создателей Nightshade и Glaze, в идеале художники должны использовать как Glaze, так и Nightshade, прежде чем делиться своими работами в Интернете. Сегодня разработчики продолжают тестировать, как инструменты взаимодействуют на одном и том же изображении, и планируют выпустить интегрированный единый сервис, который выполняет функции обоих. В то же время они рекомендуют сначала использовать Nightshade, а затем Glaze, чтобы свести к минимуму видимые эффекты. Также команда призывает не публиковать работы, которые были обработаны только при помощи Nightshade, поскольку это полностью не защитит художников от плагиата ИИ.

Подписи и водяные знаки, даже те, которые добавляются в метаданные изображения, являются «хрупкими» и могут быть удалены при изменении изображения. Изменения же, вносимые Nightshade, сохраняются при обрезке, сжатии, создании снимков экрана или редактировании, поскольку они изменяют пиксели, составляющие изображение.

По мере того как генеративные модели становятся все более изощренными, художники сталкиваются с растущим давлением, требующим защиты своих работ. Так, сервисы Steg.AI и Imatag помогают авторам установить право собственности на свои изображения, нанося водяные знаки, незаметные для человеческого глаза, хотя ни один из них не обещает защитить пользователей от недобросовестного скрейпинга. А инструмент No AI, выпущенный в 2023 году, помечает работы, созданные человеком, как сгенерированные искусственным интеллектом, в надежде, что наборы данных, используемые для обучения будущих моделей, будут отфильтровывать изображения, созданные ИИ.

Разработчики Glaze и Nightshade считают, что в идеале компании должны покупать неповрежденные изображения для обучения своих моделей. Это гарантирует, что художник дал согласие и получит вознаграждение за свою работу. Так, Getty Images и Nvidia недавно запустили инструмент генеративного искусственного интеллекта, полностью обученный с использованием обширной библиотеки стоковых фотографий Getty. Клиенты платят комиссию, определяемую количеством фотографий, которые они хотят создать, а фотографы, чьи работы были использованы для обучения модели, получают часть дохода.

В заключение Бен Чжао уточнил, что он не против ИИ, и отметил, что большая часть маркетинговой шумихи и паники вокруг нейросетей относятся к генеративным моделям, а традиционный искусственный интеллект все так же используется для разработки новых лекарств и борьбы с изменением климата. Он категорически против монетизации Glaze и Nightshade или продажи интеллектуальной собственности проектов стартапу или корпорации. В свою очередь, художники благодарны за отсутствие абонентской платы, которая почти повсеместно распространена в программном обеспечении, используемом в творческих индустриях.