Принадлежащее холдингу Alibaba подразделение Qwen представило свою самую мощную на сегодняшний день большую языковую модель — Qwen3-Max. Эта модель с более чем 1 трлн параметров имеет производительность, сравнимую с лидерами рынка, такими как OpenAI и Google, но с акцентом на скорость и доступность через API.
Google DeepMind/Unsplash
Несмотря на свой огромный размер, Qwen3-Max, по словам разработчиков, обладает «невероятно быстрой скоростью ответа». Модель имеет контекстное окно в 262 144 токена, что позволяет обрабатывать большие объемы информации за один раз. Нейросеть также оптимизирована для сложных рассуждений, написания кода и творческих задач.
Согласно тестам, опубликованным командой Qwen, Qwen3-Max-Preview превосходит предыдущую топовую модель компании и успешно конкурирует с Claude Opus 4, Kimi K2 и Deepseek-V3.1 в таких бенчмарках, как SuperGPQA и Arena-Hard v2. Это делает ее привлекательным решением для корпоративных клиентов, которым нужна высокая производительность для решения сложных задач.
На данный момент Qwen3-Max доступна в чатботе Qwen Chat, через API Alibaba Cloud и платформу OpenRouter. В отличие от предыдущих моделей Qwen, эта версия пока не выпущена под открытой лицензией. Стоимость использования API варьируется в зависимости от размера входного контекста, начиная от $2,86 за 1 млн входных токенов — существенно дешевле топовых нейросетей OpenAI и Anthropic.
Ранее сообщалось, что китайская Deepseek тренирует ИИ-агента R2, который сможет составить конкуренцию передовым американским разработкам от Google, OpenAI и других компаний.