Meta представила MobileLLM-R1: легкая модель для рассуждений на устройстве с менее чем 1 млрд параметров

Meta опубликовала MobileLLM-R1 на Hugging Face — семейство легковесных моделей для рассуждений на устройстве с размерами от 140M до 950M параметров. Модели ориентированы на эффективное решение задач по математике, программированию и научным рассуждениям на устройствах с ограниченными ресурсами; в обмен они жертвуют общей разговорной универсальностью в пользу точности и экономии вычислений.

Архитектура и конструкция

Флагман MobileLLM-R1-950M включает ряд архитектурных оптимизаций, направленных на снижение вычислительной и памятьной нагрузки при сохранении выразительности:

Эти решения ориентированы на компактный форм‑фактор, пригодный для размещения на краевых устройствах, с минимизацией требований к KV-кэшу и оперативной памяти.

Эффективность обучения

MobileLLM-R1 выделяется экономией данных. Семейство обучалось примерно на 4.2 трлн токенов в сумме. Для сравнения, модель Qwen3 с 0.6B параметров использовала около 36 трлн токенов. Иными словами, MobileLLM-R1 достигает сопоставимой или лучшей точности, используя примерно 11.7% данных, которые потребовались Qwen3. После базовой предобучения применялась супервизируемая дообучка на датасетах для математики, кода и рассуждений, чтобы усилить профильные навыки.

Такая эффективность снижает затраты на обучение и требования к ресурсам, упрощая разработку целевых решений.

Результаты на бенчмарках

На наборе тестов по математике, рассуждениям и коду MobileLLM-R1-950M демонстрирует значительные преимущества по сравнению с несколькими полностью открытыми моделями:

В целом R1-950M показывает результаты, характерные для более крупных архитектур, сохраняя при этом меньшее число параметров.

Ограничения и компромиссы

Оптимизация под структуированное рассуждение влечёт за собой ряд ограничений:

Сравнение с Qwen3, SmolLM2 и OLMo

Краткая сводка по посттренированным моделям и ключевым метрикам (значения из источника):

Ключевые наблюдения:

Значение для краевых сценариев

MobileLLM-R1 демонстрирует тенденцию к использованию меньших, профильных моделей, которые обеспечивают конкурентные способности в рассуждениях без больших бюджетов на обучение. Для разработчиков, которые строят локальные ассистенты для математики и кода, MobileLLM-R1 предлагает интересный компромисс между точностью и затратами, при условии соблюдения лицензионных и функциональных ограничений. Модели доступны на Hugging Face; дополнительные материалы и руководства опубликованы на GitHub и в сообществе.