<НА ГЛАВНУЮ

Internal Coherence Maximization: революция в обучении больших языковых моделей без разметки

Internal Coherence Maximization (ICM) представляет собой новый метод обучения больших языковых моделей без использования разметки, достигающий результатов, сопоставимых с обучением на данных с человеческой разметкой.

Проблемы человеческого надзора в больших языковых моделях

Методы дообучения языковых моделей обычно зависят от человеческого надзора через демонстрации или обратную связь с предпочтениями, чтобы задать желаемое поведение моделей. Однако по мере усложнения задач и возможностей моделей такой надзор становится ненадежным. Модели могут копировать ошибки из демонстраций или использовать слабости систем обратной связи. Это особенно критично для задач, которые превосходят человеческие возможности в надежности демонстраций или оценок. Недавние исследования выявили различные сбои, включая обход наград, основанных на человеко-созданных сигналах, и проблемы с самой человеческой обратной связью.

Поиск альтернатив человеческому надзору

Учёные изучают способы масштабирования обучения без человеческого контроля. Один из подходов — использование высококачественных проверяемых наград, например, сопоставление результатов модели с эталонными решениями в математике. Несмотря на сильные скрытые возможности предобученных моделей, пост-тренинг часто даёт лишь минимальный прирост. Метод Contrast Consistent Search (CCS) — это обучаемый без учителя подход, использующий логическую согласованность для извлечения знаний без надзора. Тем не менее, CCS уступает контролируемым методам и часто не выявляет знания из-за других признаков, удовлетворяющих критериям согласованности.

Введение Internal Coherence Maximization (ICM)

Группа исследователей из Anthropic, Schmidt Sciences, Independent, Constellation, Нью-Йоркского университета и Университета Джорджа Вашингтона предложила Internal Coherence Maximization (ICM) — новый метод, который дообучает предобученные модели на собственных сгенерированных метках без использования внешних разметок. ICM ищет наборы меток, логически согласованные и взаимно предсказуемые моделью. Поскольку оптимальный поиск меток вычислительно сложен, используется алгоритм, вдохновлённый имитацией отжига, для приближённого максимума цели. Этот метод достигает результатов, сравнимых с обучением на эталонных метках на TruthfulQA и GSM8K, и превосходит обучение на краудсорсинговых метках Alpaca.

Принцип работы алгоритма ICM

ICM выполняет итеративный трёхэтапный процесс:

  1. Выбор нового немаркированного примера из датасета для возможного включения.
  2. Определение оптимальной метки для примера с одновременным разрешением логических противоречий.
  3. Оценка решения о принятии нового размеченного примера на основе функции оценки.

ICM протестирован на трёх датасетах: TruthfulQA (оценка правдивости), GSM8K-verification (математическая корректность) и Alpaca (полезность и безвредность). В экспериментах использовались четыре базовые линии — Zero-shot, Zero-shot (Chat), Golden Label и Human Label, а также две открытые модели с весами (Llama 3.1 8B и 70B) и две проприетарные модели (Claude 3 Haiku и Claude 3.5 Haiku).

Результаты и сравнения моделей

В задачах с требованиями сверхчеловеческих способностей ICM достигает точности 80%, сравнимой с золотым стандартом, что превосходит оценочную точность человека в 60%. С помощью моделей наград, созданных ICM, исследователи обучили чат-бота без человеческого надзора. Такая модель наград достигла 75,0% точности на RewardBench, превзойдя 72,2% точности моделей, обученных с человеческим надзором на производственных данных. Были обучены две политики с помощью RL — на основе несупервизированной и человеко-супервизированной моделей наград — для создания полезных, безвредных и честных ассистентов. Политика, обученная на несупервизированной модели, добилась 60% побед, однако уступила Claude 3.5 Haiku с 92%.

Перспективы и ограничения

ICM — значительный шаг вперёд в обучении без учителя, позволяющий дообучать модели на собственных метках и достигать или превосходить качество данных с человеческой разметкой в нескольких задачах. Ограничения включают зависимость от выраженности концепций в предобученной модели и трудности с длинными входами из-за ограничений контекстного окна. По мере развития языковых моделей, выходящих за пределы возможностей человеческой оценки, ICM предлагает перспективную альтернативу традиционному RLHF, помогая согласовать модели с человеческими намерениями без ограничений человеческого надзора.

Подробности доступны в оригинальной статье. Следите за обновлениями в Twitter и присоединяйтесь к сообществам ML.

🇬🇧

Switch Language

Read this article in English

Switch to English