Национальный институт стандартов и технологий (NIST) объявил о запуске NIST GenAI — новой программы, направленной на оценку технологий генеративного искусственного интеллекта, включая ИИ, генерирующий тексты и изображения. Она сможет отличать медиа, созданные человеком, от медиа, созданных ИИ.
NIST GenAI будет определять контрольные показатели и помогать создавать системы обнаружения «подлинности контента», а также будет поощрять разработку программного обеспечения для выявления источников фальшивой или вводящей в заблуждение информации, генерируемой ИИ, поясняет NIST на сайте NIST GenAI и в пресс-релизе.
«Программа NIST GenAI представит серию задач, предназначенных для оценки и измерения возможностей и ограничений технологий генеративного ИИ, — говорится в пресс-релизе. — Эти оценки будут использоваться для определения стратегий обеспечения целостности информации и руководства безопасным и ответственным использованием цифрового контента».
Цели оценки NIST GenAI:
Первый проект NIST GenAI — это исследование по созданию систем, которые смогут надежно отличать медиа, созданные человеком, от медиа, созданных искусственным интеллектом, начиная с текста.
NIST GenAI приглашает команды из академических, промышленных и исследовательских лабораторий представить либо «генераторы» — системы ИИ для создания контента, либо «дискриминаторы» — системы, предназначенные для идентификации контента, созданного ИИ.
Генераторы в исследовании должны генерировать резюме объемом 250 слов или меньше при условии указания темы и набора документов, а дискриминаторы должны определить, является ли данное резюме потенциально написанным искусственным интеллектом.
«Чтобы обеспечить справедливость, NIST GenAI предоставит данные, необходимые для тестирования генераторов. Системы, обученные на общедоступных данных и которые «не соответствуют применимым законам и правилам», не будут приняты», — заявляет NIST.
Регистрация проекта начнется 1 мая, а первый раунд из двух планируют завершить 2 августа. Ожидается, что окончательные результаты исследования будут опубликованы в феврале 2025 года. Запуск исследования NIST GenAI, посвященного дипфейкам, происходит на фоне роста объема дезинформации генерируемой ИИ.
По данным компании Clarity, занимающейся обнаружением дипфейков, в этом году было создано и опубликовано на 900% больше дипфейков по сравнению с аналогичным периодом прошлого года. Недавний опрос YouGov показал, что 85% американцев обеспокоены распространением в Интернете вводящих в заблуждение дипфейков.
Запуск NIST GenAI является частью ответа NIST на указ президента Джо Байдена об ИИ, в котором изложены правила, требующие от компаний, занимающихся искусственным интеллектом, большей прозрачности в отношении того, как работают их модели. В указе также установлено множество новых стандартов, в том числе для маркировки контента, созданного ИИ.
Это первое заявление NIST, связанное с ИИ, после назначения Пола Кристиано, бывшего исследователя OpenAI, в Институт безопасности искусственного интеллекта агентства. Однажды он предсказал, что «есть 50% вероятность того, что развитие ИИ может закончиться уничтожением человечества».
Критики, в том числе ученые из NIST, опасаются, что Кристиано может побудить Институт безопасности ИИ сосредоточиться на «фантастических сценариях», а не на реалистичных, более непосредственных рисках, связанных с ИИ. NIST сообщает, что NIST GenAI будет информировать Институт безопасности ИИ.
В соответствии с новым законом, создание откровенно сексуальных дипфейков будет считаться уголовным преступлением в Англии и Уэльсе, заявляет правительство Великобритании. Согласно закону, любому, кто создаст откровенные изображения взрослого человека без его согласия, будет грозить судимость и не ограниченный по размеру штраф. По словам Министерства юстиции, закон будет применяться независимо от того, намеревался ли создатель изображения делиться им. А в случае, если изображение будет широко распространено, его создателю грозит тюремное заключение.