NVIDIA Представляет OpenMath-Nemotron: Модели ИИ, Лидирующие в Математическом Решении Задач
NVIDIA выпустила модели OpenMath-Nemotron-32B и 14B-Kaggle, которые лидируют в математическом решении задач и заняли первое место в конкурсе AIMO-2 на платформе Kaggle, установив новые рекорды производительности.
Прорыв в математическом рассуждении ИИ
Математическое рассуждение — сложная задача для ИИ, требующая не только понимания абстрактных концепций, но и способности точно выполнять многошаговые логические выводы. Традиционные языковые модели хорошо генерируют текст, но часто испытывают трудности с решением сложных математических задач, требующих глубоких знаний и структурированного подхода. Это стимулирует развитие специализированных архитектур и методов обучения для улучшения математических возможностей ИИ.
Новые модели OpenMath-Nemotron-32B и 14B-Kaggle
Компания NVIDIA представила модели OpenMath-Nemotron-32B и OpenMath-Nemotron-14B-Kaggle, обученные на наборе OpenMathReasoning — коллекции сложных задач из математических олимпиад и стандартизированных экзаменов. Модели основаны на архитектуре трансформеров Qwen и оптимизированы для высокой точности, скорости вывода и эффективности использования ресурсов.
Флагманская модель OpenMath-Nemotron-32B с 32,8 миллиардами параметров использует BF16-тензорные операции для эффективных вычислений. Она достигает рекордных результатов на таких бенчмарках, как AIME 2024 и 2025, Harvard–MIT Mathematics Tournament (HMMT) и серии HLE-Math. В режиме tool-integrated reasoning (TIR) модель достигает 78,4% pass@1 на AIME24 и 93,3% точности по большинству голосов, превосходя предыдущие лучшие модели.
Гибкие режимы вывода
Модель 32B поддерживает три режима вывода:
- Chain-of-Thought (CoT): генерирует промежуточные шаги рассуждений, достигая 76,5% pass@1 на AIME24.
- Tool-Integrated Reasoning (TIR): использует внешние инструменты для улучшения рассуждений.
- Generative Solution Selection (GenSelect): создает несколько вариантов решения и выбирает наиболее согласованное, повышая точность до 93,3%.
Эти режимы позволяют балансировать между подробными объяснениями и точностью ответа в зависимости от задачи.
Компактная и эффективная модель 14B-Kaggle
OpenMath-Nemotron-14B-Kaggle с 14,8 миллиардами параметров обучена на специально подобранной части набора данных, ориентированной на соревновательную производительность. Эта модель обеспечила NVIDIA первое место в конкурсе AIMO-2 на платформе Kaggle, сфокусировавшись на задачах формата и сложности конкурса.
Несмотря на меньший размер, модель 14B-Kaggle демонстрирует высокие результаты: 73,7% pass@1 на AIME24 в режиме CoT и до 86,7% в режиме GenSelect. Ее показатели на AIME25 и HMMT подтверждают эффективность для сценариев с ограниченными ресурсами.
Открытый конвейер и интеграция
Обe модели сопровождаются открытым конвейером, интегрированным в фреймворк NeMo-Skills от NVIDIA, с эталонными реализациями всех режимов вывода и примерами кода для быстрого создания приложений, поддерживающих поэтапное решение математических задач или получение готовых ответов.
Оптимизация для оборудования и развертывание
Модели оптимизированы для работы на GPU NVIDIA (архитектуры Ampere и Hopper), используя BF16, CUDA-библиотеки, TensorRT и Triton Inference Server для быстрой и эффективной работы в производственных условиях.
Применения и перспективы
Возможные сферы применения включают системы обучения с ИИ, подготовку к академическим конкурсам и интеграцию в научные вычисления, требующие формального или символического рассуждения. В будущем планируется поддержка университетского уровня математики, мультимодальных данных и тесная интеграция с системами символических вычислений для проверки и улучшения решений.
Switch Language
Read this article in English