MiMo-7B от Xiaomi: компактная модель ИИ, превосходящая большие аналоги в математике и программировании
MiMo-7B от Xiaomi — компактная языковая модель, которая благодаря продвинутому предобучению и обучению с подкреплением превосходит более крупные модели в задачах математики и программирования.
Рост спроса на ИИ с продвинутыми навыками рассуждения
Растущая потребность в системах ИИ, способных выполнять многошаговые логические задачи, математические доказательства и разработку программного обеспечения, стимулирует исследователей улучшать способности моделей к рассуждению. Ранее считавшееся исключительно человеческим навыком, рассуждение сейчас внедряется в компактные модели для повышения их эффективности и доступности.
Трудности создания компактных моделей с навыками рассуждения
Достичь высокого уровня выполнения математических и программных задач в небольшой модели – сложная задача. Большинство успешных моделей в этих областях имеют около 32 миллиардов параметров и более. Малые модели часто сталкиваются с проблемами обобщения, редкой обратной связью в обучении с подкреплением и недостаточно качественными данными, ориентированными на задачи рассуждения.
Существующие подходы и их ограничения
Модели, такие как o-series от OpenAI, DeepSeek R1 и Claude 3.7, используют большое количество параметров и сложные методы обучения с подкреплением, включая поэтапное планирование и откат, чтобы улучшить рассуждение. Однако они сильно зависят от этапа дообучения и меньше внимания уделяют качеству данных на этапе предобучения. Такие модели часто используют фиксированные шаблоны вознаграждения, подверженные обходу, что приводит к нестабильной работе на сложных задачах генерации кода.
Инновационный подход Xiaomi с MiMo-7B
Команда Xiaomi представила семейство моделей MiMo-7B, уделяя равное внимание предобучению и дообучению для развития навыков рассуждения. MiMo-7B-Base обучалась с нуля на наборе данных из 25 триллионов токенов, используя трехэтапную стратегию, постепенно увеличивающую долю математического и программного контента. Введена задача множественного предсказания токенов для повышения производительности и скорости вывода.
Для дообучения использовался тщательно отобранный набор из 130 000 математических и программных задач с оценками сложности. Обучение с подкреплением применяло систему вознаграждения, основанную на сложности, что обеспечило более точную обратную связь. Были созданы две основные версии: MiMo-7B-RL и MiMo-7B-RL-Zero.
Подготовка данных и новшества в предобучении
Разработан специальный HTML-экстрактор для сохранения математических формул и кода из веб-страниц, научных публикаций и книг. Улучшены инструменты парсинга PDF для точной интерпретации научного и программного содержимого. Применена глобальная дедупликация данных. Качество контента оценивали мелкие дообученные модели, заменив устаревшие эвристики. В финальном этапе добавлены синтетические данные для задач рассуждения.
В итоге на втором этапе обучения 70% данных содержали математику и код, а на третьем — дополнительно 10% синтетического контента. Максимальная длина контекста расширена до 32 768 токенов, что позволяет работать с задачами длинных рассуждений.
Улучшения в обучении с подкреплением
Внедрён seamless rollout engine с асинхронным вычислением вознаграждения и ранним завершением, что снизило время простоя GPU, ускорив обучение в 2,29 раза и валидацию — в 1,96 раза. Использованы детальные вознаграждения, основанные на сложности тестов, что решило проблему редкой обратной связи. Приём повторной выборки данных повысил стабильность и эффективность обучения, позволяя модели успешно обучаться даже без предварительной инициализации.
Результаты эффективности
MiMo-7B-Base набрала 75,2 балла в задаче Big-Bench Hard, превзойдя другие открытые модели с 7 миллиардами параметров. MiMo-7B-RL достигла 55,4 балла в бенчмарке AIME 2025, опередив OpenAI o1-mini на 4,7 балла. В задачах генерации кода модель превзошла более крупные аналоги DeepSeek-R1-Zero-32B и Qwen2.5-32B-RL-Zero на LiveCodeBench v5 и v6.
Значение проекта MiMo-7B
Проект демонстрирует, что благодаря оптимизированному предобучению, качеству данных и инфраструктуре обучения с подкреплением компактные модели могут конкурировать и превосходить значительно большие модели в сложных задачах рассуждения. Подход Xiaomi опровергает мнение, что размер модели определяет интеллект и универсальность, и раскрывает потенциал небольших, грамотно сконструированных ИИ.
Основные выводы
- MiMo-7B обучалась на 25 триллионах токенов с использованием структурированных смесей данных.
- Для обучения с подкреплением использованы 130 000 помеченных по сложности задач.
- Трехэтапное предобучение с растущим содержанием математики и кода.
- Ускорение обучения с помощью seamless rollout engine.
- Превосходство в бенчмарках по сравнению с крупными моделями.
- Все варианты модели и контрольные точки доступны публично.
Подробности доступны в официальной статье и репозитории на GitHub.
Switch Language
Read this article in English