FILTER MODE ACTIVE

#трансформеры

Найдено записей: 10

#трансформеры15.11.2025

OpenAI обучает весово разреженные трансформеры для выявления компактных интерпретируемых цепей

'OpenAI использует обучение с жесткой весовой разреженностью, чтобы извлекать небольшие и проверяемые цепи, объясняющие поведение модели на простых Python задачах.'

#трансформеры25.07.2025

Энергоориентированные Трансформеры: Новый Уровень Несупервизированного Системного Мышления 2-го Типа в ИИ

Энергоориентированные трансформеры позволяют машинам выполнять сложное несупервизированное мышление системы 2, улучшая рассуждения и обобщение в различных задачах без специализированного надзора.

#трансформеры19.07.2025

MemAgent: Революция в обработке длинных контекстов в LLM с помощью обучения с подкреплением

MemAgent представляет собой RL-агента памяти, позволяющего LLM эффективно работать с очень длинными документами, сохраняя высокую точность и линейные вычислительные затраты.

#трансформеры11.06.2025

Прорыв Meta: новая методика измеряет, сколько языковые модели запоминают на уровне бит

Meta и партнёры разработали новую методику для точного измерения запоминания языковых моделей, показав, что GPT хранит около 3,6 бит на параметр, и предоставили важные инсайты о различии между запоминанием и обобщением.

#трансформеры21.05.2025

PARSCALE: Революция в масштабировании языковых моделей с помощью параллельных вычислений

PARSCALE предлагает новый подход к масштабированию языковых моделей через параллельные вычисления, снижая использование памяти и задержки при улучшении производительности.

#трансформеры30.04.2025

Переосмысление разреженного внимания: прорывы для эффективных больших языковых моделей с длинным контекстом

Исследователи из Эдинбурга, Cohere и Meta показали, что большие разреженные модели превосходят меньшие плотные при работе с длинным контекстом, предложив новые законы масштабирования и стандартизированные методы.

#трансформеры26.04.2025

Meta AI представляет Token-Shuffle: простой метод уменьшения количества токенов изображений в трансформерах

Meta AI разработала Token-Shuffle — метод, уменьшающий количество токенов изображений в трансформерах для эффективной генерации высококачественных изображений высокого разрешения с меньшими ресурсами.

#трансформеры23.04.2025

Оптимизатор Muon от Microsoft значительно ускоряет гроккинг в трансформерах

Исследователи Microsoft показали, что оптимизатор Muon существенно ускоряет гроккинг в моделях трансформеров, обеспечивая более быстрый переход от запоминания к обобщению по сравнению с AdamW.