Alibaba представила Qwen3-Max-Preview — модель с триллионом параметров и контекстом в 262K токенов
Кратко о релизе
Команда Qwen от Alibaba представила Qwen3-Max-Preview (Instruct) — самый крупный языкровой модельный релиз компании на данный момент, с числом параметров свыше одного триллиона. Модель доступна через Qwen Chat, API Alibaba Cloud, OpenRouter и используется по умолчанию в инструменте AnyCoder на Hugging Face.
Масштаб и ограничения контекста
Qwen3-Max задаёт новую планку по масштабу: более 1 триллиона параметров и очень длинное окно контекста. Модель поддерживает до 262 144 токенов в сумме (258 048 входных и 32 768 выходных). Для ускорения многотуровых сессий реализовано кеширование контекста, что повышает эффективность при длительном взаимодействии.
Производительность и бенчмарки
Предварительные результаты показывают, что Qwen3-Max опережает Qwen3-235B-A22B-2507 и конкурирует с моделями уровня Claude Opus 4, Kimi K2 и Deepseek-V3.1. Модель показывает сильные результаты в задачах рассуждения, программирования и общих задачах в наборах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 и LiveBench. Хотя модель не позиционируется исключительно как модель для рассуждений, наблюдаются признаки возникающих структурированных навыков рассуждения при сложных задачах.
Ценообразование и доступ
Qwen3-Max распространяется не как открытые веса — доступ ограничен API и партнёрскими платформами. Alibaba Cloud ввела ступенчатое ценообразование по токенам:
- 0–32K токенов: $0.861 за миллион входных, $3.441 за миллион выходных
- 32K–128K токенов: $1.434 за миллион входных, $5.735 за миллион выходных
- 128K–252K токенов: $2.151 за миллион входных, $8.602 за миллион выходных
Такая шкала делает модель экономичной для коротких задач, но значительно дороже при обработке очень длинных контекстов.
Влияние на исследовательское сообщество и рынок
Закрытая модель и доступ по API ускоряют коммерческую монетизацию, но ограничивают возможности исследователей и open-source сообществ, которым нужен доступ к весам для дообучения и воспроизводимости. Тем не менее масштаб и поддержка длинного контекста открывают возможности для коммерческих сценариев, требующих обработки больших документов или длительных сессий.
Основные выводы
- Первая версия Qwen с более чем триллионом параметров — самый крупный LLM Alibaba на сегодняшний день.
- Поддержка ultra-long контекста до 262K токенов с кешированием для ускорения многотуровых взаимодействий.
- Сильные показатели в бенчмарках, сопоставимые с ведущими коммерческими моделями.
- Наблюдаются признаки возникающих способностей к структурированному рассуждению.
- Закрытый доступ и ступенчатое ценообразование ограничивают доступность для части пользователей.
Где попробовать
Превью доступно в Qwen Chat и через API Alibaba Cloud. Также модель доступна через OpenRouter и в AnyCoder на Hugging Face. Для материалов и примеров Alibaba рекомендует посетить их GitHub с туториалами, кодами и ноутбуками, а также подписаться на соответствующие сообщества и каналы.