<НА ГЛАВНУЮ

MiniCPM4 от OpenBMB: революция в edge AI с ультраэффективными языковыми моделями

OpenBMB представила MiniCPM4 — ультраэффективные большие языковые модели, оптимизированные для edge-устройств, с разреженным вниманием и быстрым инференсом, превосходящие конкурентов при меньшем объёме данных.

Проблема запуска больших языковых моделей на edge-устройствах

Большие языковые модели, такие как GPT и LLaMA, кардинально изменили возможности ИИ в области многоязычного перевода, виртуальных помощников и рассуждений. Однако их огромный размер и вычислительные требования ограничивают их использование в облаке, что вызывает задержки, высокие затраты и проблемы с конфиденциальностью. Эти факторы препятствуют эффективному развертыванию на edge-устройствах, таких как мобильные телефоны или встроенные системы с ограниченными ресурсами.

Ограничения существующих решений

Существующие методы оптимизации языковых моделей для edge включают механизмы разреженного внимания, такие как NSA и MoBA, а также масштабный сбор данных с фильтрацией через fastText или ручную проверку. Фреймворки обучения, например StepLaw, оптимизируют гиперпараметры, но требуют мощных GPU. Техники инференса, вроде FlashAttention, уменьшают сложность, но не обеспечивают необходимую скорость для edge-устройств.

Представляем MiniCPM4: решение для edge-развертывания

MiniCPM4 от OpenBMB вышел в двух размерах — 0.5B и 8B параметров — специально для эффективной работы на устройствах с ограниченными ресурсами. Ключевые улучшения затрагивают четыре направления:

  • Архитектура: InfLLM v2 применяет разреженное внимание, ускоряя предварительное заполнение и декодирование, сохраняя понимание контекста и снижая вычисления на 60%.
  • Данные: UltraClean создает и фильтрует данные, используя только 8 триллионов токенов вместо 36 триллионов у конкурентов, что обеспечивает высокое качество датасетов на английском и китайском.
  • Обучение: ModelTunnel v2 эффективно настраивает гиперпараметры с помощью ScalingBench.
  • Инференс: CPM.cu использует CUDA и спекулятивную выборку для быстрого инференса в реальном времени.

Технические инновации MiniCPM4

InfLLM v2 разбивает кеши ключ-значение на блоки и выбирает наиболее релевантные с помощью семантических ядер, поддерживая последовательности до 128К токенов без потери скорости. UltraClean проверяет данные с помощью предобученной модели, дообученной на 10 миллиардах токенов, создавая датасеты, которые превосходят предыдущие на несколько процентов. UltraChat v2 улучшает способности модели к рассуждениям через многотуровые диалоги.

Результаты тестирования и прирост производительности

Модель 8B MiniCPM4 показала впечатляющие результаты: 32.24% по MMLU, опережая конкурентов, и более чем на 10% выше по ARC-C и ARC-E. Используя лишь 22% данных Qwen3-8B, MiniCPM4 обеспечивает скорость инференса в 7 раз выше на документах длиной 128К токенов на GPU Jetson AGX Orin и RTX 4090. Скорость декодирования превышает 200 токенов в секунду для длинных контекстов, с плавным переходом к плотному вниманию для коротких последовательностей. BitCPM4 позволяет проводить обучение с учетом квантизации для устройств с очень ограниченной памятью без потери точности.

Ключевые преимущества MiniCPM4

  • Доступен в версиях с 0.5B и 8B параметров, оптимизированных для edge.
  • Использует только 8 триллионов токенов для обучения с высоким качеством данных.
  • Обеспечивает в 7 раз более быструю обработку по сравнению с аналогами.
  • InfLLM v2 снижает вычислительные затраты на внимание на 60%.
  • Превосходит конкурентов по основным бенчмаркам.
  • Поддерживает устройства с крайне ограниченной памятью благодаря BitCPM4.
  • CPM.cu сочетает CUDA и спекулятивную выборку для высокой скорости.
  • UltraChat v2 улучшает обучение с рассуждениями посредством диалогов.
  • ModelTunnel v2 повышает эффективность обучения через точную настройку гиперпараметров.

MiniCPM4 открывает новые возможности для использования продвинутых языковых моделей на edge-устройствах, позволяя создавать безопасных офлайн-помощников, мобильный ИИ в реальном времени и автономные встроенные системы без облачной зависимости.

🇬🇧

Switch Language

Read this article in English

Switch to English