Современные языковые модели сталкиваются с проблемой «контекстного искажения». При увеличении объема текста их способность извлекать информацию резко падает. У ИИ есть ограниченный «объём рабочей памяти» (контекстное окно), обычно 100 000 токенов. Если поступающий текст превышает этот лимит, факты начинают перемешиваться, модель теряет нить рассуждений и выдаёт противоречивые или неточные ответы. Это можно сравнить с человеком, который пытается запомнить всю энциклопедию, чтобы ответить на один вопрос.
Учёные из MIT предложили новый подход: вместо того чтобы загружать все документы в память модели, они рассматривают их как базу данных с возможностью поиска. Модель обращается только к тем фрагментам текста, которые нужны для ответа. Это делает обработку более управляемой и эффективной.
Технология превращает текст в «среду» для исследования. Документы структурируются так, чтобы модель могла программно перемещаться по ним и выбирать релевантные фрагменты. ИИ целенаправленно ищет нужную информацию, вместо того чтобы пытаться запомнить весь массив данных.
В тестах RLM обрабатывала целые книги, многолетние архивы и большие кодовые базы, превосходя обычные модели в задачах на сложные рассуждения. Такой подход открывает новые возможности для юристов, разработчиков ПО, исследователей и других специалистов, работающих с крупными массивами информации.
Исследование включает полноценную библиотеку реализации RLM, а также облегчённую версию для разработчиков, позволяющую создавать собственные приложения. Компания Prime Intellect уже работает над промышленным вариантов технологии.

