Разобраться • 4 ноября 2024

Почему в США заблокировали закон, который должен помешать ИИ устроить конец света

Почему в США заблокировали закон, который должен помешать ИИ устроить конец света

Текст: Максвелл Зефф, старший репортер TechCrunch

Перевод: Татьяна Казымова


На сегодняшний день мир пока не видел прецедентов, когда системы искусственного интеллекта убивали людей или использовались в масштабных кибератаках. Тем не менее американские власти хотели внедрить меры предосторожности до того, как злоумышленники сделают это антиутопическое будущее реальностью. Летом парламентарии Калифорнии приняли новый законопроект, призванный предотвратить катастрофы, которые потенциально может спровоцировать ИИ, но уже в сентябре на него наложили вето. Разобрались, как американцы хотели защититься от возможных угроз со стороны нейросетей и почему это невыгодно корпорациям и инвесторам.

В августе этого года комитет по ассигнованиям Калифорнии принял законопроект SB 1047 с существенными поправками. Он был направлен на то, чтобы привлечь разработчиков ИИ к ответственности в случае, если технология нанесет ущерб, превышающий $500 млн.

Тем не мене в конце сентября губернатор Калифорнии Гэвин Ньюсом наложил вето на законопроект, который ввел бы самые строгие в стране правила регулирования в сфере разработки систем искусственного интеллекта. Это стало крупной победой для технологических компаний и инвесторов-капиталистов, настроенных против законопроекта, и поражением для сторонников более жесткого регулирования умных технологий.

Потенциальная угроза

Несмотря на то что преследует, казалось бы, благие цели, документ вызвал недовольство венчурных инвесторов, крупных технологических торговых групп, исследователей и основателей стартапов. Это не первый в США законопроект об искусственном интеллекте, тем не менее он стал одним из самых противоречивых.

SB 1047 пытается предотвратить использование крупных моделей искусственного интеллекта для нанесения «критического вреда» человечеству. В законопроекте приводятся такие примеры, как использование модели ИИ для создания оружия массового поражения и организация с ее помощью кибератаки, ущерб от которой составит более $500 млн, — для сравнения, ущерб от инцидента с CrowdStrike оценивается в $5 млрд. (19 июля 2024 года разработчик решений для кибербезопасности CrowdStrike разослал клиентам несовершенное обновление ПО, из-за чего произошел сбой в работе критически важных структур: аэропортов, больниц, и т. д. — Прим. ред.).

Кроме того, законопроект возлагает на разработчиков, то есть компании, которые создают такие модели, ответственность за внедрение достаточных протоколов безопасности для предотвращения подобных последствий.

SB 1047 распространяется только на самые крупные модели ИИ в мире, то есть те, что стоят не менее $100 млн и используют 10^26 FLOPS (FLoating-point OPerations per Second — единица, используемая для измерения производительности компьютеров. Показывает, сколько операций с плавающей запятой в секунду выполняет вычислительная система. — Прим. ред.) во время обучения. Генеральный директор OpenAI Сэм Альтман сказал, что обучение GPT-4 обошлось примерно в эту же сумму.

Сегодня очень немногие компании могут похвастаться ИИ-моделями, соответствующими этим требованиям. Однако такие технологические гиганты, как OpenAI, Google и Microsoft, вероятно, очень скоро будут их иметь.

Убедиться в безопасности

Модели ИИ — по сути, массивные статистические системы, которые выявляют закономерности в данных, совершенствуются по мере роста их масштабов, и многие ожидают, что эта тенденция сохранится. Марк Цукерберг недавно заявил, что следующее поколение нейросети Llama от Meta* (компания запрещена и признана экстремистской на территории России. — Прим. ред.) потребует в 10 раз больше вычислений, а значит, система подпадает под действие нового закона.

Закон возлагает ответственность на первоначального разработчика системы в том случае, если другой девелопер не потратит в три раза больше средств на создание производной от первоначальной модели.

Инициатива также требует наличия протокола безопасности для предотвращения неправомерного использования продуктов искусственного интеллекта, в том числе кнопку «аварийной остановки», которая отключает всю модель ИИ. Кроме того, если бы закон вступил в силу, разработчики должны были бы внедрить процедуры тестирования, учитывающие риски, связанные с использованием нейросетей, и ежегодно нанимать сторонних аудиторов для оценки методов обеспечения безопасности.

Результатом должно было стать «разумное убеждение» в том, что следование этим протоколам предотвратит критический вред, а не абсолютная уверенность, которую, конечно, невозможно обеспечить.

Механизмы контроля

За соблюдением правил должно следить калифорнийское агентство — Совет по вопросам передовых моделей (Board of Frontier Models), — его планировали сформировать в 2026 году. Согласно проекту, каждая новая модель ИИ, соответствующая критериям законопроекта, должна пройти индивидуальную сертификацию и получить копию протокола безопасности.

Закон обязывает каждого технического директора компании-разработчика ежегодно представлять в FMD сертификат, в котором оцениваются потенциальные риски ИИ-модели, эффективность протокола безопасности и отчет о соблюдении закона. Как и в случае с уведомлениями о нарушениях, если «ИИ станет причиной инцидента», разработчик должен сообщить об этом регулятору в течение 72 часов. Законопроект также предусматривает защиту сотрудников компаний, если о проблеме заявят они.

В случае нарушения этих требований SB 1047 позволяет генеральному прокурору Калифорнии подать гражданский иск против разработчика. Для модели, обучение которой обошлось в $100 млн, штрафные санкции могут достигать $10 млн при первом нарушении и $30 млн при последующих нарушениях. Размер взыскания зависит от стоимости системы.

Даже если компания создаст модель стоимостью $100 млн в Техасе или, скажем, во Франции, она подпадает под действие SB 1047 до тех пор, пока осуществляет деятельность в штате Калифорния.

За и против

Ведущие исследователи технологий искусственного интеллекта Джеффри Хинтон и Йошуа Бенгио поддержали этот законопроект. Они принадлежат к части сообщества, обеспокоенной негативными сценариями, к которым может привести эта технология. За принятие SB 1047 выступил и «Центр безопасности ИИ» — в мае 2023 года эта группа написала открытое письмо, где призвала мировое сообщество отнестись к «снижению риска вымирания от ИИ» так же серьезно, как к пандемии или ядерной войне.

Однако мотивы директора этой организации Дэна Хендрикса можно поставить под сомнение. В июле он запустил стартап Gray Swan, который создает «инструменты, помогающие компаниям оценивать риски их систем искусственного интеллекта». После критических замечаний о выгоде для Gray Swan, если одним из аудиторов, которых SB 1047 требует нанять для разработчиков, станет этот стартап, Хендрикс продал свою долю в нем.

Проблема не оставила в стороне даже Голливуд: режиссер «Звездных войн» Джей Джей Абрамс, актер «Лунного света» Махершала Али и еще более 120 актеров и продюсеров отправили сенатору Ньюсому письмо с просьбой подписать законопроект.

Ожидаемо, что у закона SB 1047 нашлись и противники. Среди них венчурная компания a16z, основанная Марком Андреессеном и Беном Хоровицем. Главный юрист Джайкумар Рамасвами направил сенатору Винеру письмо, где утверждал, что законопроект «в связи с плавающими пороговыми значениями станет бременем для стартапов» и окажет негативное воздействие на экосистему ИИ. По его словам, с развитием технологий модели будут становиться все дороже, а это значит, что все больше стартапов преодолеют порог в $100 млн и подпадут под действие SB 1047.

Победили гиганты

Китайская исследовательница Фей-Фей Ли, которую часто называют «крестной матерью искусственного интеллекта» в начале августа написала в колонке Fortune, что законопроект «повредит зарождающейся экосистеме ИИ». Хотя Ли является признанным пионером в области исследований ИИ из Стэнфорда, стоит отметить, что в апреле она при поддержке компании a16z запустила ИИ-стартап под названием World Labs, оцениваемый в $1 млрд.

Крупные технологические компании, на которые непосредственно ориентирован законопроект, также выступили против SB 1047. «Палата прогресса», торговая группа, представляющая интересы Google, Apple, Amazon и других гигантов технологического рынка, выступила против законопроекта, опубликовав открытое письмо, где говорится, что он ограничивает свободу слова и «вытесняет технологические инновации из Калифорнии».

Видные калифорнийские политики, в том числе депутат Нэнси Пелоси, утверждали, что законопроект затормозит инновации, сделает разработку новых систем искусственного интеллекта юридически рискованной, поскольку проверить все потенциальные «вредности» многоцелевой технологии может быть сложно или невозможно. Противники проекта также утверждали, что наказывать следует не разработчиков, а тех, кто использует ИИ во вред.

Похоже, что на данный момент технологические гиганты и венчурные инвесторы одержали победу в этом противостоянии. «Я не считаю, что это лучший подход к защите общества от реальных угроз, исходящих от этой технологии (искусственного интеллекта. — Прим. ред.), — сказал Гэвин Ньюсом, блокируя закон. — Для Калифорнии подобная стратегия может быть оправданной — особенно в отсутствие мер со стороны Конгресса, — однако она должна быть основана на эмпирических данных и науке».

*Компания Meta признана экстремистской на территории России