Лидеры в области разработки моделей на основе искусственного интеллекта создадут форум для контроля над использованием технологии. Он будет следить за безопасностью разработки.
Компании OpenAI, Microsoft, Google и Anthropic работают над созданием форума Frontier Model Forum, который будет регулировать работу больших моделей машинного обучения, сообщает Reuters со ссылкой на источники из индустрии ИИ.
Форум будет заниматься обеспечением безопасной и ответственной разработки высокоэффективных пограничных моделей ИИ, которые имеют большие возможности, чем уже существующие, и могут представлять риск для общественной безопасности.
Frontier Model Forum также займется продвижением исследований в области безопасности ИИ, выявлением лучших практик внедрения передовых моделей ИИ и взаимодействием с политиками, учеными и предпринимателями.
«Компании, которые занимаются разработкой моделей искусственного интеллекта, несут ответственность за то, чтобы их продукты были безопасными, надежными и подчинялись людям», — заявил президент Microsoft Брэд Смит.
В конце июля Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской и запрещена на территории РФ), Microsoft и OpenAI согласились на ряд требований Белого дома по устранению рисков, связанных с развитием ИИ. Компании будут инвестировать в кибербезопасность и создадут системы водяных знаков, информирующих пользователей о том, что контент создан с помощью ИИ.