<НА ГЛАВНУЮ

LightOn AI представила GTE-ModernColBERT-v1: Продвинутая семантическая поисковая модель для длинных документов

LightOn AI представила GTE-ModernColBERT-v1 — мощную модель для семантического поиска, эффективно работающую с длинными документами и показывающую лучшие результаты на бенчмарках.

Семантический поиск и его значение

Семантический поиск направлен на понимание смысла текста, а не просто на сопоставление ключевых слов, что позволяет системам выдавать результаты, лучше соответствующие запросам пользователей. Эта технология особенно важна в таких областях, как научные исследования, юридический анализ и цифровые ассистенты, где требуется масштабный поиск информации. В отличие от традиционных методов, семантический поиск использует высокоразмерные векторные представления текста, сохраняющие семантические связи и обеспечивающие более релевантные результаты.

Проблемы при работе с длинными документами

Одной из главных проблем семантического поиска является эффективная обработка длинных документов и сложных запросов. Многие модели ограничены фиксированной длиной токенов (обычно 512 или 1024), что затрудняет работу с полноформатными статьями или многоабзацными текстами. Важная информация, расположенная в конце документа, может быть усечена или потеряна. Кроме того, вычислительные затраты при обработке и сравнении больших объемов данных влияют на производительность в реальном времени. Масштабируемость, точность и адаптация к новым данным остаются ключевыми вызовами.

Новые возможности с GTE-ModernColBERT-v1

LightOn AI представила модель GTE-ModernColBERT-v1, основанную на архитектуре ColBERT и базе ModernBERT от Alibaba-NLP. Обученная на входах длиной 300 токенов, модель способна обрабатывать до 8192 токенов, эффективно работая с длинными документами и минимизируя потерю информации. Она использует семантическое сопоставление на уровне токенов с оператором MaxSim, сравнивая векторы отдельных токенов, а не объединяя их в один.

Технические особенности и интеграция

GTE-ModernColBERT-v1 преобразует текст в 128-мерные плотные векторы и вычисляет семантическое сходство с помощью MaxSim. Модель интегрируется с системой индексирования Voyager от PyLate, использующей эффективный иерархический индекс HNSW, что позволяет управлять большими объемами векторных представлений. Пользователи могут извлекать наиболее релевантные документы через ColBERT-ретривер с поддержкой полного конвейера индексирования и легкого переранжирования. PyLate также позволяет менять длину документов при инференсе, что дает возможность работать с текстами длиннее, чем в обучении.

Результаты работы модели

На датасете NanoClimate модель достигла Accuracy@1 — 0.360, Accuracy@5 — 0.780 и Accuracy@10 — 0.860. Показатели recall и precision были стабильными: MaxSim Recall@3 равен 0.289, Precision@3 — 0.233. В бенчмарке BEIR GTE-ModernColBERT превзошла предыдущие модели, включая ColBERT-small, набрав 54.89 по FiQA2018, 48.51 по NFCorpus и 83.59 по TREC-COVID. В LongEmbed модель получила средний балл 88.39, а в LEMB Narrative QA Retrieval — 78.82, превосходя другие ведущие модели почти на 10 пунктов.

Преимущества и сферы применения

Модель демонстрирует высокую обобщаемость и превосходно справляется с обработкой длинных контекстов. Совместимость с масштабируемыми системами индексирования и переранжирования делает её подходящей для академических, корпоративных и многоязычных приложений, требующих быстрого и точного поиска документов. GTE-ModernColBERT-v1 решает основные проблемы семантического поиска длинных текстов, объединяя точность на уровне токенов с архитектурой, рассчитанной на масштабирование.

Ознакомьтесь с моделью на Hugging Face и следите за развитием исследований в Twitter и сообществах ML SubReddit.

🇬🇧

Switch Language

Read this article in English

Switch to English