<НА ГЛАВНУЮ

PoE-World: Модульные символические модели превосходят RL-базисы в Montezuma’s Revenge с минимальными данными

PoE-World представляет модульный символический подход, который превосходит традиционные методы обучения с подкреплением в Montezuma’s Revenge с минимальными данными, обеспечивая эффективное планирование и сильное обобщение.

Роль символического рассуждения в моделировании мира

Создание ИИ, способного адаптироваться к сложным ситуациям, требует глубокого понимания работы окружающего мира. Традиционные нейросетевые модели, такие как Dreamer, гибки, но требуют огромных объемов данных, гораздо больше, чем необходимо человеку. В то время как синтез программ с помощью больших языковых моделей (LLM) предлагает более эффективные по данным модели мира, создавая программные представления. Однако их масштабирование на сложные динамические среды затруднено из-за сложности генерации крупных программ.

Ограничения существующих программных моделей мира

Современные методы часто создают одну большую программу для представления мира, как в WorldCoder и CodeWorldModels. Такой подход ограничивает масштабируемость и способность работать с неопределенностью и частичной наблюдаемостью в сложных средах. Некоторые исследования сочетают символическое рассуждение с визуальными данными в робототехнике, используя ограниченные языки предметной области или структуры типа факторных графов. Теоретические модели, например AIXI, также исследуют моделирование мира через машины Тьюринга и историю наблюдений.

Представление PoE-World: модульный и вероятностный подход

PoE-World, разработанный исследователями из Корнелла, Кембриджа, Института Алана Тьюринга и Далхаузи, предлагает иной подход — объединение множества маленьких программ, синтезированных LLM, каждая из которых описывает конкретное правило среды. Такая модульная вероятностная структура позволяет учиться на минимальных демонстрациях и обобщать на новые ситуации. PoE-World работает с символическими объектными наблюдениями, а не с сырыми пикселями, акцентируя внимание на точном моделировании для эффективного планирования в сложных играх, таких как Pong и Montezuma’s Revenge.

Архитектура и обучение PoE-World

Среда моделируется как смесь программных экспертов — небольших интерпретируемых Python-программ, каждая отвечает за определенное правило или поведение. Эксперты взвешиваются и комбинируются для предсказания будущих состояний на основе истории и действий, при условной независимости признаков. Жесткие ограничения уточняют предсказания, эксперты обновляются или удаляются по мере поступления новых данных. Система поддерживает планирование и обучение с подкреплением через симуляцию вероятных будущих состояний. Программы синтезируются с помощью LLM и интерпретируются вероятностно, веса оптимизируются градиентным спуском.

Результаты на Atari

PoE-World + Planner протестирован на Pong и Montezuma’s Revenge, включая усложнённые версии, с минимальными демонстрационными данными. Он превосходит RL-базисы, такие как PPO, ReAct и WorldCoder, особенно в условиях дефицита данных. Модель хорошо обобщается, точно описывая динамику игр даже в измененных условиях без новых демонстраций. PoE-World — единственный метод, стабильно набирающий положительные очки в Montezuma’s Revenge. Предварительное обучение политик в симулированной среде PoE-World значительно ускоряет обучение в реальных условиях. По сравнению с ограниченными и порой неточными моделями WorldCoder, PoE-World создаёт более детализированные, учитывающие ограничения представления, что улучшает планирование и реалистичность поведения в игре.

Символические модульные программы для масштабируемого планирования ИИ

PoE-World демонстрирует потенциал модульных символических моделей мира, синтезируемых LLM, для создания адаптивных ИИ-агентов. Комбинируя программных экспертов, модель достигает сильного обобщения с минимальными данными, эффективного планирования и надежной работы в сложных задачах. Код и демонстрации доступны для изучения.

Для дополнительной информации смотрите статью, страницу проекта и репозиторий на GitHub.

🇬🇧

Switch Language

Read this article in English

Switch to English