Думай прежде, чем предсказывать: RLP от NVIDIA внедряет усиленное обучение в стадию предтренировки

Что такое RLP

NVIDIA представила Reinforcement Learning Pretraining (RLP) — цель предтренировки, которая вознаграждает модель за «мышление»: генерацию коротких цепочек рассуждений (chain-of-thought, CoT) перед предсказанием следующего токена. Вместо применения усиленного обучения после предтренировки, RLP даёт плотный, позиционный сигнал вознаграждения прямо во время предтренировки. Вознаграждение измеряет информационный прирост, который даёт мысль о следующем токене по сравнению с EMA-базой без мышления.

Механизм: награды за информационный прирост и контрфактическая EMA

RLP использует одну сеть с общими параметрами, чтобы и (1) сэмплировать политику CoT, и (2) оценивать вероятность следующего токена при условии этой мысли. Медленно обновляемая EMA-учительница служит контрфактом для «безмыслия». Позиционная награда — это логарифмическое отношение правдоподобий между вероятностью, условной на мысль, и EMA-базой, вычисляемое при teacher forcing. Обновления выполняются только для токенов мысли с помощью усечённого суррогатного критерия с пер-токенными коэффициентами важности и относительными преимуществами по группам; множественные сэмплы мыслей на контекст уменьшают дисперсию.

Ниже воспроизведён дословно фрагмент из исходного текста, отражающий пер-мысленную награду и подход к обновлениям:

/* 




r(ct​)=logpθ​(xt​∣x<t​,ct​)−logpϕ​(xt​∣x<t​), computed under teacher forcing. Training updates only the thought tokens using a clipped surrogate with per-token importance ratios and group-relative advantages (multiple sampled thoughts per context reduce variance). The objective maximizes expected information gain; theoretical results connect the expected reward to reductions in cross-entropy and bound it via marginalization over thoughts.
Why this matters technically: unlike prior “reinforcement pretraining” variants that rely on sparse, binary correctness signals or proxy filters, RLP’s dense, verifier-free reward attaches position-wise credit wherever thinking improves prediction, enabling updates at every token position in general web-scale corpora without external verifiers or curated answer keys. 
Understanding the Results
Qwen3-1.7B-Base: Pretraining with RLP improved the overall math+science average by ~19% vs the base model and ~17% vs compute-matched continuous pretraining (CPT). After identical post-training (SFT + RLVR) across all variants, the RLP-initialized model retained a ~7–8% relative advantage, with the largest gains on reasoning-heavy benchmarks (AIME25, MMLU-Pro). 
Nemotron-Nano-12B v2: Applying RLP to a 12B hybrid Mamba-Transformer checkpoint yielded an overall average increase from 42.81% to 61.32% and an absolute +23% gain on scientific reasoning, even though the RLP run used ~200B fewer tokens (training for 19.8T vs 20T tokens; RLP applied for 250M tokens). This highlights data efficiency and architecture-agnostic behavior. 
https://github.com/NVlabs/RLP/blob/main/pdf/RLP_Reinforcement_as_a_Pretraining_Objective.pdf
RPT comparison: Under matched data and compute with Omni-MATH-style settings, RLP outperformed RPT on math, science, and overall averages—attributed to RLP’s continuous information-gain reward versus RPT’s sparse binary signal and entropy-filtered tokens. 
https://github.com/NVlabs/RLP/blob/main/pdf/RLP_Reinforcement_as_a_Pretraining_Objective.pdf
Positioning vs. Post-Training RL and Data Curation
Reinforcement Learning Pretraining (RLP) is orthogonal to post-training pipelines (SFT, RLVR) and shows compounding improvements after standard alignment. Because the reward is computed from model log-evidence rather than external verifiers, it scales to domain-agnostic corpora (web crawl, academic text, textbooks) and SFT-style reasoning corpora, avoiding the brittleness of narrow curated datasets. In compute-matched comparisons (including CPT with 35× more tokens to match FLOPs), RLP still led on overall averages, suggesting the improvements derive from objective design, not budget.
Key Takeaways
RLP makes reasoning a pretraining objective: sample a chain-of-thought before next-token prediction and reward it by information gain over a no-think EMA baseline.
Verifier-free, dense, position-wise signal: works on ordinary text streams without external graders, enabling scalable pretraining updates on every token.
Qwen3-1.7B results: +19% vs Base and +17% vs compute-matched CPT during pretraining; with identical SFT+RLVR, RLP retains ~7–8% gains (largest on AIME25, MMLU-Pro).
Nemotron-Nano-12B v2: overall average rises 42.81% → 61.32% (+18.51 pp; ~35–43% rel.) and +23 points on scientific reasoning, using ~200B fewer NTP tokens.
Training details that matter: update gradients only on thought tokens with a clipped surrogate and group-relative advantages; more rollouts (≈16) and longer thought lengths (≈2048) help; token-level KL anchoring offers no benefit.
Conclusion
RLP reframes pretraining to directly reward “think-before-predict” behavior using a verifier-free, information-gain signal, yielding durable reasoning gains that persist through identical SFT+RLVR and extend across architectures (Qwen3-1.7B, Nemotron-Nano-12B v2). The method’s objective—contrasting CoT-conditioned likelihood against a no-think EMA baseline—integrates cleanly into large-scale pipelines without curated verifiers, making it a practical upgrade to next-token pretraining rather than a post-training add-on.
Check out the Paper, Code and Project Page. Feel free to check out our GitHub Page for Tutorials, Codes and Notebooks. Also, feel free to follow us on Twitter and don’t forget to join our 100k+ ML SubReddit and Subscribe to our Newsletter. Wait! are you on telegram? now you can join us on telegram as well.
The post NVIDIA Researchers Propose Reinforcement Learning Pretraining (RLP): Reinforcement as a Pretraining Objective for Building Reasoning During Pretraining appeared first on MarkTechPost.
*/

Почему это важно

Технически RLP даёт непрерывный, плотный сигнал, привязанный к позициям токенов, и не требует внешних верификаторов или ответов-ключей. Это позволяет применять метод к широким корпусам (веб-краул, академические тексты, учебники) и получать обновления на каждом токен-контексте, там где мысль повышает точность предсказания.

Результаты

RLP также превзошёл RPT в сопоставимых условиях данных и вычислений, что авторы связывают с непрерывной наградой за информационный прирост в отличие от разреженного бинарного сигнала RPT.

Особенности обучения

Важные детали: градиенты обновляются только для токенов мысли, используется усечённый суррогат с пер-токенными коэффициентами важности и групповыми преимуществами; полезно больше rollout’ов (≈16) и длиннее мысли (≈2048). Токен-уровневое KL-анкёрирование не дало пользы.

Вывод

RLP переводит задачу формирования рассуждений в саму цель предтренировки: модель учится «думать перед предсказанием» через награду за информационный прирост по сравнению с EMA-базой без мышления. Метод хорошо масштабируется, интегрируется в существующие пайплайны и даёт стойкие улучшения рассуждений без необходимости в узкоспециализированных верификаторах.