<НА ГЛАВНУЮ

Tencent выпускает Hunyuan-A13B: эффективная MoE-модель с 13 млрд активных параметров, двойным режимом мышления и поддержкой 256K контекста

Tencent представила Hunyuan-A13B — эффективную открыто исходную MoE-языковую модель с двойным режимом рассуждения и поддержкой огромных контекстов до 256K токенов, демонстрирующую передовые результаты на бенчмарках.

Представление Hunyuan-A13B

Команда Tencent Hunyuan представила Hunyuan-A13B — новую открыто исходную крупную языковую модель, построенную на основе разреженной архитектуры Mixture-of-Experts (MoE). Несмотря на общий объем в 80 миллиардов параметров, во время инференса активны лишь 13 миллиардов, что обеспечивает баланс между производительностью и эффективностью.

Архитектура и особенности

Hunyuan-A13B построена на тонко настроенной MoE-архитектуре с одним общим экспертом и 64 уникальными экспертами, из которых в каждом проходе активируются 8. Модель состоит из 32 слоев, использует активации SwiGLU и словарь размером в 128 тысяч токенов. Группированное внимание к запросам (GQA) повышает эффективность использования памяти при работе с длинными контекстами — поддерживается длина контекста до 256 тысяч токенов.

Процесс обучения включает 20 триллионов токенов для предобучения, затем быстрый отжиг и адаптацию к длинным контекстам. Окно контекста последовательно расширяется с 32K до 256K токенов с помощью позиционного кодирования, учитывающего NTK, что обеспечивает стабильную производительность на больших длинах последовательностей.

Двойной режим рассуждения

Особенностью модели является двухрежимное рассуждение Chain-of-Thought. Пользователи могут выбирать между быстрым режимом (/no think) для рутинных запросов и медленным режимом (/think) для сложных многошаговых рассуждений. Такая гибкость позволяет адаптировать вычислительные ресурсы под сложность задачи.

Постобучение и донастройка

Модель проходит многоэтапное контролируемое дообучение и обучение с подкреплением с использованием специализированных моделей награды. RL-этапы включают награды, основанные на результатах, и обратную связь, связанную с использованием инструментов, включая песочницу для исполнения кода и правил для агентов.

В фазе обучения агентов синтезированы разнообразные сценарии работы с инструментами, задействующие роли планировщика, проверяющего и инструмента, с более чем 20 тысячами комбинаций форматов. Это усиливает способность Hunyuan-A13B выполнять реальные рабочие процессы — обработку таблиц, поиск информации и структурированное рассуждение.

Результаты тестирования

Hunyuan-A13B показывает передовые результаты на различных бенчмарках:

  • Соответствует или превосходит более крупные плотные и MoE-модели на MATH, CMATH и GPQA.
  • Обходит Qwen3-A22B и DeepSeek R1 в логическом рассуждении (BBH: 89.1; ZebraLogic: 84.7).
  • Показывает высокие результаты в программировании: 83.9 на MBPP и 69.3 на MultiPL-E.
  • Лидирует в агентских тестах BFCL-v3 (78.3) и ComplexFuncBench (61.2).
  • Отличается пониманием длинных контекстов: 87.7 на PenguinScrolls и устойчиво 73.9 на RULER при 64K–128K контексте, превосходя более крупные модели.

Оптимизация инференса и развертывание

Модель полностью интегрирована с популярными фреймворками для инференса — vLLM, SGLang и TensorRT-LLM. Поддерживаются форматы точности W16A16, W8A8 и KV Cache FP8, а также функции Auto Prefix Caching и Chunk Prefill. Модель достигает пропускной способности до 1981,99 токенов в секунду на 32-батчевом входе, что делает её практичной для приложений в реальном времени.

Открытость и значение для индустрии

Hunyuan-A13B доступна на Hugging Face и GitHub под либеральной лицензией, ориентирована на исследовательское и промышленное применение, особенно в задачах с низкой задержкой и длинным контекстом. Комбинация масштабируемой MoE-архитектуры и продвинутого агентного рассуждения делает Hunyuan-A13B привлекательной альтернативой более тяжеловесным LLM, расширяя возможности для экспериментов и внедрения без потери качества.

Подробнее с проектом можно ознакомиться в статье и на репозиториях. Следите за новостями в Twitter и присоединяйтесь к ML-сообществу.

🇬🇧

Switch Language

Read this article in English

Switch to English