В новом отчете стартап OpenAI заявил, что его модель GPT-4 обеспечивает «в лучшем случае небольшое повышение» возможностей создания биологического оружия. Но компания предупредила, что будущие модели могут быть более опасными. Их знания способны помочь злоумышленникам создать биологическое и химическое оружие, а также спланировать атаку.
В прошлом году крупный отчет корпорации Rand показал, что большие языковые модели (LLM) могут использоваться для планирования биологических атак, хотя в нем говорится, что они не могут предоставить конкретных инструкций по фактическому созданию биологического оружия. До этого Марк Цукерберг высказался по поводу способности искусственного интеллекта Llama 2 от Meta* (запрещена на территории РФ) давать пользователям подробные инструкции по созданию сибирской язвы.
Отчет группы «готовности» OpenAI, сформированной в прошлом году для изучения потенциальных «катастрофических» последствий, которые могут возникнуть в результате разработки передового искусственного интеллекта, был направлен на исследование этих проблем. Исследователи собрали группу из 50 экспертов по биологии и 50 студентов, которые прошли хотя бы один курс биологии в колледже, и случайным образом распределили их в группу с доступом к GPT-4 или контрольную группу с доступом к интернету.
Участникам было поручено попытаться ответить на ряд вопросов, касающихся создания биологического оружия, в том числе о том, как они будут синтезировать высокоинфекционный вирус Эбола. Группе GPT-4 был предоставлен доступ к исследовательской версии модели, которая, в отличие от ChatGPT, имеет меньше «защитных ограждений».
Исследование показало, что, те, кто имел доступ к GPT-4, действительно увидели небольшое увеличение точности и детализации по сравнению с группой, использующей только Интернет. Но этот рост не был достаточно статистически значимым, чтобы указывать на какое-либо реальное увеличение риска.
«Хотя это увеличение недостаточно велико, чтобы его можно было считать окончательным, наше открытие является отправной точкой для дальнейших исследований и обсуждений сообщества», — заявили в OpenAI. Стартап также пояснил, что, учитывая нынешние темпы инноваций в области искусственного интеллекта, будущие версии ChatGPT, вероятно, смогут «предоставить значительные преимущества злоумышленникам».
До этого сообщалось, что генеральный директор Microsoft Сатья Наделла опасается хакеров и считает их угрозой мировому порядку. Он призвал США, Россию и Китай объединиться, чтобы защититься от кибератак. Наделла считает, что существует реальный риск «разрушения мирового порядка», если страны не придумают Женевскую киберконвенцию.