Ученые в области ИИ выступили с призывом к мировым лидерам принять срочные меры, критикуя отсутствие прогресса со времени последнего саммита по безопасности ИИ. Они предлагают жесткую политику для регулирования развития ИИ и предотвращения его неправильного использования, подчеркивая, что ИИ может превзойти человеческие возможности и создать серьезные риски.
Эксперты в области ИИ предупреждают о недостаточности мер по борьбе с рисками, связанными с ИИ, и выступают за строгое управление, чтобы предотвратить возможные катастрофы. Они призывают мировых лидеров принять более решительные меры по борьбе с рисками ИИ, подчеркивая, что прогресс, достигнутый после первого саммита по безопасности ИИ в Блетчли-Парке полгода назад, оказался недостаточным.
На том, первом саммите мировые лидеры обязались ответственно подходить к управлению ИИ. Тем не менее в преддверии второго саммита по безопасности ИИ в Сеуле двадцать пять ведущих исследователей ИИ утверждали, что нынешние усилия недостаточны для защиты от опасностей, исходящих от технологии.
В статье, опубликованной в журнале Science, они предлагают политические меры, которые необходимо реализовать, чтобы противостоять угрозам, исходящим от технологий ИИ.
«На последнем саммите по ИИ мир согласился с тем, что нам необходимы действия, но теперь настало время перейти от расплывчатых предложений к конкретным обязательствам. В этом документе содержится множество важных рекомендаций о том, что компании и правительства должны взять на себя обязательства», — сказал профессор Филип Торр с факультета инженерных наук Оксфордского университета.
По мнению авторов документа, мировым лидерам необходимо серьезно отнестись к возможности того, что в течение текущего или следующего десятилетия будут разработаны мощные универсальные системы ИИ, превосходящие человеческие способности во многих критических областях.
По их словам, несмотря на то что правительства по всему миру обсуждают передовой ИИ и предпринимают некоторые попытки ввести первоначальные руководящие принципы, это просто несопоставимо с возможностью быстрого, преобразующего прогресса, ожидаемого многими экспертами.
Современные исследования в области безопасности ИИ серьезно ограничены: по оценкам, лишь 1–3% публикаций по ИИ касаются безопасности. Кроме того, у нас нет ни механизмов, ни институтов для предотвращения злоупотреблений и безрассудства, в том числе в отношении использования автономных систем, способных самостоятельно предпринимать действия.
В связи с этим международное сообщество пионеров ИИ выступило с призывом к действию. В число соавторов вошли Джеффри Хинтон, Эндрю Яо, Доун Сонг, покойный Дэниел Канеман — всего 25 ведущих мировых академических экспертов в области ИИ и управления им.
Среди авторов — представители США, Китая, ЕС, Великобритании и других держав, занимающихся вопросами ИИ, лауреаты премии Тьюринга, нобелевские лауреаты и авторы стандартных учебников по ИИ. Эта статья — первый случай, когда такая большая и международная группа экспертов согласовала приоритеты для глобальных политиков в отношении рисков, связанных с передовыми системами ИИ.
Авторы рекомендуют правительствам:
По мнению авторов, для создания исключительно эффективных будущих систем ИИ правительства должны быть готовы взять на себя ведущую роль в регулировании. Это включает в себя лицензирование разработки этих систем, ограничение их автономии в ключевых социальных ролях, остановку их разработки и развертывания в ответ на вызывающие беспокойство возможности, введение обязательного контроля доступа и требование мер информационной безопасности, устойчивых к хакерам на государственном уровне, до тех пор, пока не будут готовы адекватные средства защиты.
ИИ быстро прогрессирует в таких областях, как хакерство, социальное манипулирование и стратегическое планирование, и вскоре может создать проблемы контроля. Для достижения нежелательных целей системы ИИ могут завоевать доверие людей, получить ресурсы и повлиять на ключевых лиц, принимающих решения.
Чтобы избежать вмешательства человека, они могут быть способны копировать свои алгоритмы через глобальные серверные сети. Масштабные киберпреступления, социальные манипуляции и другие вредные действия могут быстро нарастать. В открытом конфликте системы ИИ могут автономно применять различные виды оружия, включая биологическое.
Таким образом, существует вполне реальная вероятность, что бесконтрольное развитие ИИ может привести к масштабной гибели людей и биосферы, а также к маргинализации или вымиранию человечества.
«Это консенсусный документ ведущих экспертов, и он призывает к строгому регулированию со стороны правительств, а не к добровольным кодексам поведения, написанным промышленностью. Пришло время всерьез заняться продвинутыми системами ИИ. Это не игрушки», — сказал Стюарт Рассел OBE, профессор информатики Калифорнийского университета в Беркли и автор стандартного мирового учебника по ИИ.
«Увеличивать возможности ИИ до того, как мы поймем, как сделать их безопасными, совершенно безрассудно. Компании будут жаловаться на то, что слишком сложно соответствовать нормативным требованиям, что регулирование подавляет инновации. Это просто смешно. В магазинах сэндвичей действует больше правил, чем в компаниях, занимающихся разработкой искусственного интеллекта», — добавил он.
Ранее Уоррен Баффетт, американский предприниматель, заявил, что у ИИ есть не только положительные перспективы, но и огромный потенциал для вреда. «Если подумать о потенциале мошенничества… если бы я хотел инвестировать в мошенничество, это была бы самая развивающаяся отрасль всех времен, и в какой-то мере это возможно благодаря ИИ», — сказал он.