<НА ГЛАВНУЮ

Meta AI представляет Matrix: Децентрализованная платформа для генерации синтетических данных

Matrix повышает эффективность генерации синтетических данных, используя децентрализованное управление и значительно улучшая пропускную способность токенов.

Matrix: Децентрализованное управление синтетическими данными

Как поддерживать синтетические данные свежими и разнообразными для современных AI-моделей, не превращая единственный оркестрационный конвейер в узкое место? Исследователи Meta AI представляют Matrix — децентрализованную платформу, где управление и поток данных сериализуются в сообщения, которые перемещаются через распределенные очереди. Поскольку обучение LLM все больше зависит от синтетических бесед, следов инструментов и цепочек рассуждений, большинство существующих систем все еще зависят от центрального контроллера или специализированных настроек, что приводит к потере возможностей GPU, увеличению накладных расходов на координацию и ограничению разнообразия данных. Вместо этого Matrix использует планирование агентов peer-to-peer на кластере Ray и обеспечивает в 2-15 раз большую пропускную способность токенов на реальных нагрузках при сопоставимом качестве.

Децентрализованная архитектура: от контроллеров к агентам

Традиционные агентные фреймворки сохраняют состояние рабочего процесса и логику управления в центральном оркестраторе. Каждый вызов агента, вызов инструмента и повторная попытка проходят через этот контроллер. Эта модель проста для понимания, но плохо масштабируется, когда вам нужны десятки тысяч параллельных синтетических диалогов или траекторий инструментов.

Matrix принимает другой подход. Он сериализует как поток управления, так и поток данных в объект сообщения, называемый оркестратором. Оркестратор хранит состояние задачи, включая историю беседы, промежуточные результаты и логику маршрутизации. Статистические агенты, реализованные как актеры Ray, забирают оркестратор из распределенной очереди, применяют свою специфическую логику, обновляют состояние, а затем отправляют его напрямую следующему выбранному агенту. Внутренний цикл не содержит центрального планировщика. Каждая задача продвигается независимо на уровне строк, что уменьшает время простоя и улучшает обработку ошибок.

Стек системы и услуги

Matrix работает на кластере Ray, который обычно запускается на SLURM. Ray предоставляет распределенные актеры и очереди. Ray Serve открывает конечные точки LLM и может маршрутизировать запросы к внешним API. Вызовы инструментов выполняются внутри контейнеров Apptainer для изоляции, в то время как Hydra управляет конфигурацией. Grafana интегрируется с метриками Ray для отслеживания производительности в режиме реального времени.

Matrix также вводит выгрузку сообщений, когда истории беседы превышают определенный порог размерности, что снижает сетевой трафик и позволяет высокопроизводительным LLM работать.

Кейс-стадии

1. Коллаборативный рассуждатель

Коллаборативный рассуждатель оценивает многоагентный диалог. Matrix переосмысляет это с помощью peer-to-peer оркестраторов. На 31 узле A100 с использованием LLaMA 3.1 8B Instruct Matrix достигает пропускной способности токенов около 2 миллиардов токенов за 4 часа — в 6.8 раз быстрее, чем оригинальная модель.

2. Натуральный анализ веб-данных

Натуральный анализ использует Matrix для курирования наборов данных рассуждений из веб-корпусов. Он показывает в 2.1 раз большую пропускную способность благодаря эффективному планированию агентов.

3. Tau2-Bench использование инструментов

В сценарии поддержки клиентов Matrix генерирует 22,800 траекторий примерно за 1.25 часа, обеспечивая в 15.4 раза большую пропускную способность токенов по сравнению с базовыми реализациями.

Основные выводы

  • Matrix заменяет централизованные оркестраторы на архитектуру peer-to-peer, которая рассматривает каждую задачу независимо.
  • Платформа полностью построена на открытых инструментах и масштабируется для больших рабочих потоков.
  • Matrix достигает значительных улучшений в пропускной способности токенов, сохраняя качество вывода.

Редакционные заметки

Matrix является важным вкладом в операционализацию генерации синтетических данных с несколькими агентами. Он эффективно разделяет планирование, LLM-вывод и инструменты.

🇬🇧

Switch Language

Read this article in English

Switch to English