<НА ГЛАВНУЮ

NVIDIA Представляет OpenMath-Nemotron: Модели ИИ, Лидирующие в Математическом Решении Задач

NVIDIA выпустила модели OpenMath-Nemotron-32B и 14B-Kaggle, которые лидируют в математическом решении задач и заняли первое место в конкурсе AIMO-2 на платформе Kaggle, установив новые рекорды производительности.

Прорыв в математическом рассуждении ИИ

Математическое рассуждение — сложная задача для ИИ, требующая не только понимания абстрактных концепций, но и способности точно выполнять многошаговые логические выводы. Традиционные языковые модели хорошо генерируют текст, но часто испытывают трудности с решением сложных математических задач, требующих глубоких знаний и структурированного подхода. Это стимулирует развитие специализированных архитектур и методов обучения для улучшения математических возможностей ИИ.

Новые модели OpenMath-Nemotron-32B и 14B-Kaggle

Компания NVIDIA представила модели OpenMath-Nemotron-32B и OpenMath-Nemotron-14B-Kaggle, обученные на наборе OpenMathReasoning — коллекции сложных задач из математических олимпиад и стандартизированных экзаменов. Модели основаны на архитектуре трансформеров Qwen и оптимизированы для высокой точности, скорости вывода и эффективности использования ресурсов.

Флагманская модель OpenMath-Nemotron-32B с 32,8 миллиардами параметров использует BF16-тензорные операции для эффективных вычислений. Она достигает рекордных результатов на таких бенчмарках, как AIME 2024 и 2025, Harvard–MIT Mathematics Tournament (HMMT) и серии HLE-Math. В режиме tool-integrated reasoning (TIR) модель достигает 78,4% pass@1 на AIME24 и 93,3% точности по большинству голосов, превосходя предыдущие лучшие модели.

Гибкие режимы вывода

Модель 32B поддерживает три режима вывода:

  • Chain-of-Thought (CoT): генерирует промежуточные шаги рассуждений, достигая 76,5% pass@1 на AIME24.
  • Tool-Integrated Reasoning (TIR): использует внешние инструменты для улучшения рассуждений.
  • Generative Solution Selection (GenSelect): создает несколько вариантов решения и выбирает наиболее согласованное, повышая точность до 93,3%.

Эти режимы позволяют балансировать между подробными объяснениями и точностью ответа в зависимости от задачи.

Компактная и эффективная модель 14B-Kaggle

OpenMath-Nemotron-14B-Kaggle с 14,8 миллиардами параметров обучена на специально подобранной части набора данных, ориентированной на соревновательную производительность. Эта модель обеспечила NVIDIA первое место в конкурсе AIMO-2 на платформе Kaggle, сфокусировавшись на задачах формата и сложности конкурса.

Несмотря на меньший размер, модель 14B-Kaggle демонстрирует высокие результаты: 73,7% pass@1 на AIME24 в режиме CoT и до 86,7% в режиме GenSelect. Ее показатели на AIME25 и HMMT подтверждают эффективность для сценариев с ограниченными ресурсами.

Открытый конвейер и интеграция

Обe модели сопровождаются открытым конвейером, интегрированным в фреймворк NeMo-Skills от NVIDIA, с эталонными реализациями всех режимов вывода и примерами кода для быстрого создания приложений, поддерживающих поэтапное решение математических задач или получение готовых ответов.

Оптимизация для оборудования и развертывание

Модели оптимизированы для работы на GPU NVIDIA (архитектуры Ampere и Hopper), используя BF16, CUDA-библиотеки, TensorRT и Triton Inference Server для быстрой и эффективной работы в производственных условиях.

Применения и перспективы

Возможные сферы применения включают системы обучения с ИИ, подготовку к академическим конкурсам и интеграцию в научные вычисления, требующие формального или символического рассуждения. В будущем планируется поддержка университетского уровня математики, мультимодальных данных и тесная интеграция с системами символических вычислений для проверки и улучшения решений.

🇬🇧

Switch Language

Read this article in English

Switch to English