Три технологических гиганта — OpenAI, Anthropic PBC и Alphabet Inc. (материнская компания Google) — объединили усилия, чтобы ограничить использование американских разработок в сфере ИИ китайскими конкурентами. Как сообщили Bloomberg источники, знакомые с ситуацией, компании обмениваются информацией через Frontier Model Forum — отраслевую некоммерческую организацию, созданную ими совместно с Microsoft в 2023 году.

Форум занимается выявлением случаев так называемой недобросовестной дистилляции, которые нарушают условия предоставления услуг. OpenAI подтвердила свое участие и обвинила китайскую DeepSeek в попытке «бесплатно использовать возможности, разработанные американскими лабораториями». Google и Anthropic от комментариев отказались.
Дистилляция — это метод, при котором более старая «обучающая» модель ИИ передает знания новой «ученической» модели. Последняя воспроизводит возможности исходной системы, но с гораздо меньшими затратами, чем при создании оригинала с нуля. Некоторые формы дистилляции широко распространены и даже поощряются разработчиками, например при создании компактных версий моделей или неконкурентных технологий для сторонних разработчиков.
Однако дистилляция вызывает споры, когда третьи стороны — особенно в странах, которые в США рассматривают как стратегических конкурентов, включая Китай и Россию, — используют ее для копирования разработок без разрешения правообладателей. Американские лаборатории предупреждают, что иностранные конкуренты могут применять этот метод для создания моделей без защитных механизмов, например ограничений, не позволяющих генерировать опасные инструкции. По оценкам властей США, несанкционированное копирование обходится Кремниевой долине в миллиарды долларов ежегодной прибыли.
Большинство китайских моделей имеют открытый исходный код. Это означает, что части таких систем находятся в открытом доступе, и пользователи могут бесплатно загружать и запускать их на своих платформах. Такая модель создает дополнительные экономические риски для американских компаний, которые сохраняют свои разработки в собственности и рассчитывают, что клиенты будут платить за доступ, чтобы компенсировать сотни миллиардов долларов, потраченных на центры обработки данных и инфраструктуру.
Впервые дистилляция привлекла к себе внимание в январе 2025 года, когда DeepSeek представила модель рассуждений R1, которая произвела фурор в мире ИИ. Вскоре после этого Microsoft и OpenAI проверили, не использовал ли китайский стартап большие объемы данных без разрешения. В феврале OpenAI предупредила американских законодателей, что DeepSeek продолжает использовать все более изощренные методы для извлечения данных из американских моделей.
Обмен информацией о дистилляции напоминает практику в сфере кибербезопасности, где компании регулярно делятся данными об атаках, чтобы усилить защиту сетей. Работая сообща, разработчики ИИ стремятся эффективнее выявлять случаи недобросовестного копирования, устанавливать виновных и предотвращать доступ неавторизованных пользователей. Представители администрации Трампа заявили о готовности содействовать такому обмену.
Однако, по словам источников, обмен информацией о дистилляции пока остается ограниченным. Компании пока не до конца понимают, какую информацию можно раскрывать в соответствии с действующими антимонопольными нормами.
В прошлом году Anthropic запретила компаниям, контролируемым Китаем, использовать свою модель Claude, а в феврале выявила, что DeepSeek, Moonshot и MiniMax незаконно извлекают возможности модели. В Anthropic заявили, что угроза представляет риск для национальной безопасности, поскольку в дистиллированных моделях часто отсутствуют средства защиты от злоумышленников.
Подпишитесь на «Инк» в Telegram. Там мы пишем нескучным языком о самом важном для предпринимателей. Подписаться.