Разобраться • 27 апреля 2024

Не только польза: наступает катастрофическая угроза человечеству от искусственного интеллекта. Как это предотвратить?

Не только польза: наступает катастрофическая угроза человечеству от искусственного интеллекта. Как это предотвратить?

Текст: Мэтт Иган, CNN

Перевод: Татьяна Казымова


Новый доклад, подготовленный по заказу Государственного департамента США, рисует тревожную картину «катастрофических» рисков национальной безопасности, которые представляет быстрое развитие искусственного интеллекта. Выводы были сделаны на основе опроса более чем 200 человек, среди участников исследования — топ-менеджеры ведущих компаний, занимающихся разработкой ИИ, исследователи в области кибербезопасности, эксперты по оружию массового поражения и правительственные чиновники по национальной безопасности. Подробнее об угрозе ИИ для человечества рассказало американское издание CNN, Inc. публикует перевод статьи.

В докладе, опубликованном компанией Gladstone AI, утверждается, что самые передовые системы искусственного интеллекта могут в худшем случае представлять угрозу вымирания для человеческого вида. «ИИ уже является экономически преобразующей технологией. Он позволяет нам лечить болезни, делать научные открытия и справляться с трудностями, которые мы когда-то считали непреодолимыми, — сказал Джереми Харрис, генеральный директор и соучредитель Gladstone AI. — Но он также может привести к серьезным последствиям, в том числе катастрофическим».

Анонимный представитель Госдепа США подтвердил, что агентство заказало доклад, поскольку оно постоянно оценивает, насколько ИИ отвечает его целям по защите интересов внутри страны и за рубежом. Однако чиновник подчеркнул, что документ не отражает точку зрения правительства США. Предупреждение, содержащееся в отчете, является еще одним напоминанием, что потенциал технологий искусственного интеллекта продолжает привлекать инвесторов и общественность, хотя существует и реальная опасность.

Необходимость вмешаться

Исследователи предупреждают о двух основных опасностях, связанных с искусственным интеллектом. Во-первых, по мнению Gladstone AI, самые передовые системы ИИ могут быть потенциально использованы в качестве оружия для нанесения необратимого ущерба. Во-вторых, в докладе говорится об опасениях, что в какой-то момент разработчики искусственного интеллекта могут «потерять контроль» над системами, которые они создают, и это приведет к «разрушительным последствиям для глобальной безопасности».

«Развитие ИИ и общего искусственного интеллекта может дестабилизировать глобальную безопасность, как когда-то ядерное оружие», — говорится в докладе. Кроме того, возникает риск «гонки вооружений» ИИ, конфликтов и «несчастных случаев со смертельным исходом в масштабе оружия массового поражения».

В докладе Gladstone AI содержится призыв к новым решительным шагам, направленным на противостояние этой угрозе, включая создание нового агентства по искусственному интеллекту и введение «чрезвычайных» нормативных ограничений на то, сколько вычислительной мощности может быть использовано для обучения моделей ИИ.

Новое агентство по вопросам искусственного интеллекта должно обязать компании, являющиеся лидерами отрасли, получать разрешение правительства на обучение и развертывание новых моделей, превышающих установленный государством уровень, говорится в докладе. Кроме того, правительству следует ужесточить контроль за производством и экспортом чипов ИИ, а также направить федеральное финансирование на «согласованные» исследования, направленные на повышение безопасности передового ИИ.

«Существует четкая и безотлагательная необходимость вмешательства правительства США», — пишут авторы доклада.

Вопросы безопасности

Джереми Харрис из Gladstone AI заявил, что к таким поразительным выводам привел «беспрецедентный уровень доступа» его команды к официальным лицам в государственном и частном секторе. Представители компании также отметили, что они общалась с техническими специалистами и руководством компаний ChatGPT, владеющей OpenAI, Google DeepMind, Facebook Meta и Anthropic.

Jeremie Harris

Джереми Харрис,

генеральный директор и соучредитель Gladstone AI

«В ходе работы над докладом мы выяснили ряд отрезвляющих фактов. За кулисами ситуация с безопасностью ИИ кажется довольно неадекватной по сравнению с рисками для национальной безопасности, которые эта технология может создать в ближайшее время».

В докладе Gladstone AI также говорится, что конкуренция подталкивает компании к ускорению разработки технологий искусственного интеллекта «в ущерб безопасности». Это создает угрозу, так как наиболее передовые системы ИИ могут быть «украдены» и «использованы в качестве оружия» против Соединенных Штатов. Эти выводы пополнили растущий список предупреждений о существовующих рисках, связанных с ИИ, в том числе и от самых влиятельных представителей отрасли.

Почти год назад Джеффри Хинтон, известный как «крестный отец искусственного интеллекта», уволился из Google и рассказал о технологии, в разработке которой он принимал участие. Хинтон заявил, что существует вероятность 10% того, что ИИ приведет к вымиранию человечества в течение следующих трех десятилетий. В июне прошлого года Хинтон, десятки других лидеров индустрии ИИ, ученых и других людей подписали заявление, в котором говорится, что снижение экзистенциальных рисков, которые несет использование искусственного интеллекта, должно стать глобальным приоритетом.

Руководители компаний все больше обеспокоены этими опасностями, несмотря на то что они инвестируют миллиарды долларов в технологии ИИ. В 2023 году 42% топ-менеджеров, опрошенных на Йельском саммите руководителей, заявили, что ИИ способен уничтожить человечество через 5–10 лет.

Учится как человек

В своем отчете Gladstone AI отметила некоторых известных людей, которые предупреждали об экзистенциальных рисках, связанных с искусственным интеллектом, в том числе миллиардера Илона Маска и председателя Федеральной торговой комиссии США Лину Хан. По данным Gladstone AI, некоторые сотрудники компаний, занимающихся ИИ, поделились подобными соображениями в частном порядке.

«Один человек в известной лаборатории искусственного интеллекта выразил мнение, что если конкретная модель ИИ следующего поколения когда-либо будет выпущена в открытый доступ, то будет „очень плохо“, — говорится в докладе. — Потому что потенциальные способности модели убеждать людей могут „сломать демократию“, если они будут использованы в таких областях, как вмешательство в выборы или манипулирование избирателями».

Компания Gladstone AI заявила, что попросила экспертов по искусственному интеллекту из передовых лабораторий дать личную оценку вероятности того, что инцидент с ИИ может привести к «глобальным и необратимым последствиям» в 2024 году. Согласно отчету, ответы варьируются от 4 до 20%, при этом отмечается, что они носят неофициальный характер и, вероятно, могут быть предвзятыми.

Одной из самых больших угроз является скорость развития ИИ, в частности общего искусственного интеллекта или AGI, который представляет собой гипотетическую форму ИИ с человекоподобными или даже сверхчеловеческими способностями к обучению. В отчете говорится, что AGI рассматривается как «основной фактор риска потери контроля», и отмечается, что OpenAI, Google DeepMind, Anthropic и Nvidia публично заявили, что AGI может быть создан к 2028 году, хотя другие считают, что до этого еще очень далеко.

Gladstone AI отмечает, что разногласия по поводу сроков разработки AGI затрудняют введение регулятивных мер и существует риск того, что если технология будет развиваться медленнее, чем ожидалось, то регулирование может «оказаться губительным».

Может обернуться против людей

В другом документе, опубликованном Gladstone AI, предупреждается, что развитие AGI и его возможности повлекут за собой катастрофические риски, с которыми когда-либо сталкивались Соединенные Штаты, подобно оружию массового поражения. В докладе также говорится, что системы искусственного интеллекта могут применяться для разработки и реализации высокоэффективных кибератак, способных нанести ущерб критически важной инфраструктуре.

«Простая команда, например „выполнить неотслеживаемую кибератаку с целью выхода из строя электросети Северной Америки“, может дать ответ такого качества, который окажется катастрофически эффективным», — упоминается в отчете.

Другие примеры, которые беспокоят авторов, включают «широкомасштабные» кампании по дезинформации, осуществляемые при помощи ИИ, которые дестабилизируют общество и подрывают доверие к институтам: вооруженные роботизированные атаки с использованием беспилотных летательных аппаратов, психологическая манипуляция, биологические разработки военного назначения и настроенные враждебно к людям системы ИИ, которые невозможно контролировать.

«Исследователи ожидают, что достаточно продвинутые системы ИИ будут действовать так, чтобы не дать себя отключить, — уточнили в Gladstone AI. — Ведь если система ИИ отключена, она не сможет работать над достижением своей цели».