<НА ГЛАВНУЮ

LFM2-2.6B-Exp от Liquid AI: Инновации в RL

Исследуйте, как LFM2-2.6B-Exp улучшает производительность моделей с помощью RL.

Улучшение поведения модели с LFM2-2.6B-Exp

Liquid AI представила LFM2-2.6B-Exp, экспериментальную контрольную точку своей модели LFM2-2.6B, использующую чистое обучение с подкреплением на основе существующей архитектуры LFM2. Эта методология нацелена на улучшение выполнения инструкций, знаний и математических задач для компактной модели класса 3B, подходящей для развертывания на устройствах и на краю.

Позиционирование в семействе LFM2

LFM2 представляет второе поколение моделей Liquid Foundation, специально предназначенных для эффективного развертывания на различных устройствах, таких как телефоны и ноутбуки. Liquid AI описывает LFM2 как гибридную модель, объединяющую короткие LIV свёрточные блоки с блочными внимание по запросу, управляющимися мультипликативными воротами. В семействе моделей представлены различные размеры: LFM2-350M, LFM2-700M, LFM2-1.2B и LFM2-2.6B. Каждый размер поддерживает длину контекста в 32,768 токенов и размер словаря в 65,536, используя точность bfloat16. Модель 2.6B использует 30 слоёв—22 свёрточных и 8 слоёв внимания—обученных на бюджете в 10 триллионов токенов.

Архитектура и показатели производительности

LFM2-2.6B известен своей эффективностью, достигая 82.41% на GSM8K и 79.56% на IFEval, опережая многие 3B классовые модели, такие как Llama 3.2 и Gemma 3. Модель LFM2-2.6B-Exp сохраняет эту архитектуру, сосредоточивая внимание на изменениях поведения через этап обучения с подкреплением без изменения базовой архитектуры или методов предварительного обучения.

Чистое обучение с подкреплением

Эта экспериментальная контрольная точка сосредоточена на чистом обучении с подкреплением, целевого на выполнение инструкций, задачах знаний и математике. Основанная на контрольной точке LFM2-2.6B, модель проходит последовательное обучение RL, начиная с выполнения инструкций и расширяясь на знания и математику, исключая дополнительные шаги супервации или дистилляции.

Превосходство в бенчмаркинге на IFBench

Liquid AI подчеркивает свои успехи на IFBench, ключевом бенчмарке выполнения инструкций. LFM2-2.6B-Exp, как сообщается, превосходит модель DeepSeek R1-0528, имеющую 263 раза больше параметров, демонстрируя замечательные результаты производительности, учитывая ограничения по параметрам.

Инновации в архитектуре и возможностях

Модель использует 10 двойных свёрточных LIV блоков с коротким диапазоном и 6 блочных внимания по запросу, оптимизируя затраты кэша KV и обеспечивая быструю инференцию на стандартных потребительских графических процессорах. Данные для предварительного обучения составляют примерно 75% английского, 20% многоязычного и 5% кода, поддерживая языки, включая арабский, китайский, французский, немецкий, японский, корейский и испанский. Ее шаблон, похожий на ChatML, облегчает интеграцию инструментов, улучшая возможности модели без необходимости в индивидуальной разработке подсказок.

Основные выводы

  1. LFM2-2.6B-Exp включает этап чистого обучения с подкреплением в предобученную, предпочтительно согласованную модель для улучшения выполнения инструкций, знаний и математики.
  2. Основная модель LFM2-2.6B обладает гибридной архитектурой и поддерживает значительный параметрический бюджет, достигая высоких показателей в бенчмарках.
  3. Обладая высоким уровнем в 3B классе, экспериментальная контрольная точка RL улучшает производительность в задачах выполнения инструкций и математики без изменения существующей архитектуры.
  4. Модель показывает высокие результаты в условиях ограниченных развертываний, подтверждая свою эффективность в IFBench по сравнению с крупными моделями.
  5. Поддерживаемая через различные фреймворки, LFM2-2.6B-Exp подходит для разнообразных приложений, включая агентные системы и виртуальных ассистентов.
🇬🇧

Switch Language

Read this article in English

Switch to English