Команда исследователей Qwen, финансируемая Alibaba, выпустила новую языковую модель Qwen3−235B-A22B, которая по результатам тестов обходит нейросеть Claude 4 Opus и «рассуждающий» алгоритм Kimi K2.
Jakub Żerdzicki/Unsplash
Новая Qwen3 стала значительно лучше в написании текстов, а также в решении задач по математике, наукам и программированию по сравнению с прошлыми моделями стартапа. Алгоритм работает в так называемом «нерассуждающем» режиме, что может указывать на ее высокую эффективность. База обучения была расширена на всех языках.
Одной из главных особенностей стала поддержка огромного контекстного окна. Модель может обрабатывать до 256 тыс. токенов. Этого достаточно, чтобы загрузить в нее целиком книгу «Гарри Поттер и Кубок огня» или два романа, сравнимых по размеру с «Мастером и Маргаритой». Такая возможность открывает новые горизонты для работы с большими документами, кодом и научными статьями.
Выход Qwen3 усиливает давление на лидеров рынка, таких как OpenAI и Anthropic. Компании и независимые разработчики получают еще один мощный и, возможно, более эффективный инструмент. Особенно ценной является возможность работы с большими текстами, что востребовано в юриспруденции, финансах и научных исследованиях.
Qwen3−235B-A22B имеет 235 млрд параметров, но благодаря архитектуре «смеси экспертов» (MoE) активирует только 22 млрд при каждом запросе. Это позволяет достигать высокой производительности при меньших вычислительных затратах и делает технологию более доступной.