TimesFM-2.5 от Google: 200M модель для прогнозирования с контекстом 16K возглавляет GIFT-Eval
Google Research выпустил TimesFM-2.5 — компактную, но мощную фундаментальную модель для временных рядов, ориентированную на практические сценарии прогнозирования. Чекпоинт доступен на Hugging Face и сочетает в себе эффективность и увеличенный контекст для улучшения zero-shot прогнозов.
Что нового в TimesFM-2.5
TimesFM-2.5 — это decoder-only модель с 200 миллионами параметров и встроенной поддержкой вероятностного прогнозирования. Ключевое техническое обновление — максимальная длина контекста 16 384 временных точек, что позволяет модели учитывать гораздо более длинную историю в одном проходе. Дополнительно доступна опциональная квантильная голова на 30M параметров для непрерывных квантильных прогнозов до горизонта в 1000 шагов.
Отличия от версии v2.0
- Параметры: уменьшены до 200M вместо 500M, что повышает эффективность и скорость вывода.
- Длина контекста: увеличена до 16 384 точек вместо 2 048, что позволяет моделировать мультисезонность и низкочастотные компоненты без стыковки.
- Входы и инференс: не требуется явный индикатор частоты; добавлены флаги инференса — flip-invariance, positivity inference и исправление квантильных пересечений.
- Дорожная карта: планируется реализация на Flax для более быстрого инференса, возвращение поддержки ковариат и расширение документации.
Почему важно увеличение контекста
Контекст в 16K позволяет захватывать мультисезонные структуры, смены режимов и длительные зависимости в одном проходе, уменьшая потребность в сложной предварительной обработке, разбиении или иерархической стыковке. Это повышает стабильность в отраслях, где история значительно превышает горизонты прогнозов, например в энергетике и ритейле.
Результаты на бенчмарках и доступность
На бенчмарке GIFT-Eval TimesFM-2.5 заняла первое место среди zero-shot фундаментальных моделей по показателям MASE (точечная точность) и CRPS (вероятностная точность). Модель уже доступна на Hugging Face и считается готовой к промышленному использованию благодаря компактности, поддержке квантильных прогнозов и эффективной архитектуре.
Научный контекст и практические выводы
Идея TimesFM — единая decoder-only модель для прогнозирования — была представлена в статье ICML 2024 и в исследовательском блоге Google. GIFT-Eval от Salesforce стандартизирует оценку по разным доменам, частотам и режимам, облегчая сравнение моделей для практиков.
Коротко о значении
TimesFM-2.5 показывает переход от демонстрации концепции к практическим инструментам: модель сократила число параметров вдвое по сравнению с предыдущей версией, значительно увеличила контекст и возглавила бенчмарк в zero-shot задачах. С доступностью на Hugging Face и будущими интеграциями модель может ускорить внедрение zero-shot прогнозирования во встроенные конвейеры данных.
Материалы и ссылки
Ознакомьтесь с model card на Hugging Face, репозиторием, деталями бенчмарка и оригинальной статьей для технических подробностей и примеров использования. Авторы также публикуют туториалы, код, ноутбуки и сообщества для дальнейшего изучения.