DeepMind обнаружил предел эмбеддингов, который ломает RAG на больших объёмах

Ёмкость эмбеддингов и теоретические пределы

Системы Retrieval-Augmented Generation (RAG) обычно представляют запросы и документы в виде векторов фиксированной размерности. Исследование команды DeepMind показывает, что у такой архитектуры есть фундаментальный математический предел: при росте корпуса выше определённого порога один вектор на документ не может закодировать все возможные комбинации релевантности.

Ограничение вытекает из результатов в теории коммуникационной сложности и sign-rank. Даже при идеальной оптимизации векторов представительная способность d-мерного эмбеддинга ограничена. В исследовании приведены примерные потолки для надёжного поиска:

В реальных условиях языково-ограниченные эмбеддинги часто дают сбои при значительно меньших объёмах коллекции.

Бенчмарк LIMIT выявляет потолок

Чтобы эмпирически протестировать проблему, DeepMind представил бенчмарк LIMIT (Limitations of Embeddings in Information Retrieval). LIMIT специально сконструирован, чтобы нагрузить эмбеддинги широким набором сочетаний запрашиваемой и документной релевантности. У LIMIT две конфигурации:

Ни один эмбеддер не достигает полного релеванта даже с 46 документами, что подчёркивает: проблема в архитектуре одного вектора на документ.

Классические разреженные лексические методы, такие как BM25, не испытывают такого потолка. Разреженные модели фактически работают в очень высокоразмерных или неограниченных пространствах и могут отразить комбинации, недоступные плотным одно-векторным представлениям.

Подробности и эксперименты в бумах DeepMind: https://arxiv.org/pdf/2508.21038

Почему это важно для RAG

Многие текущие реализации RAG полагают, что эмбеддинги можно масштабировать по данным или модели, и это решит проблемы поиска. Анализ DeepMind показывает, что это неверно: размер эмбеддинга ограничивает способность кretrieval. Практические последствия:

Стандартные бенчмарки вроде MTEB покрывают лишь узкую часть возможных отношений запрос-документ и могут не заметить этот класс ошибок.

Альтернативы одно-векторным эмбеддингам

Исследование и эксперименты указывают на архитектуры, обходящие потолок одно-векторного представления:

Ключевая идея: для надёжного поиска в крупных коллекциях требуются архитектурные изменения, а не просто увеличение размеров эмбеддеров или объёмов обучения.

Коротко

Плотные одно-векторные эмбеддинги ограничены математическими пределами, завязанными на размерность вектора. LIMIT демонстрирует эти ограничения как на больших коллекциях, так и на маленьких тщательно подобранных задачах. Для надёжного retrieval в продакшн-сценариях стоит рассматривать мультивекторные, разреженные или гибридные подходы.