Большие языковые модели остаются статичными: они не запоминают прошлые ошибки и не могут самостоятельно адаптироваться после обучения. Метод FLEX меняет это, создавая динамическую «библиотеку опыта», где ИИ хранит высокоуровневых стратегические принципы, среднеуровневые рассуждения и низкоуровневые фактические знания. В библиотеке есть «золотая зона» для успешных стратегий и «зона предупреждения» для неудачных подходов. Перед решением новой задачи модель обращается к этому дневнику.
Принцип работы FLEX строится на трех этапах. Сначала «актер», ИИ-агент, пытается решить задачу. Затем «критик» и «обновитель» оценивают попытку, фиксируя успешные и неудачные стратегии. Наконец, уроки преобразуются в структурированные записи в библиотеке опыта. При этом основной «мозг» модели не изменяется — улучшается только справочник знаний, что позволяет ИИ непрерывно развиваться без дорогостоящего переобучения.
Исследователи протестировали FLEX на научных задачах. В сложном математическом тесте AIME25 точность Claude-Sonnet-4 выросла с 40% до 63,3%. При решении задач по химии в USPTO50k результаты модели улучшилась с 20% до 30%. То есть обучение на основе опыта реально повысило интеллектуальные возможности ИИ.
Одним из ключевых преимуществ FLEX стало «наследование опыта». Библиотека создается отдельно от параметров модели, поэтому ее можно переносить между различными агентами. В одном из экспериментов библиотеку опыта, созданную мощной моделью Claude-Sonnet-4.5, перенесли в модель Gemini-2.5-Pro. В результате производительность Gemini при решении задач по химии повысилась на 11 баллов. При этом даже более слабые модели могут передавать свои знания сильным. Библиотека фиксирует не конкретные ответы, а фундаментальные, высокоуровневые стратегии — по сути, накапливает «мудрость».
Такой подход открывает путь к «коллективному разуму» больших языковых моделей. Ученые предлагают создать универсальную библиотеку опыта, которая объединяла бы знания множества моделей, для повышения производительности в экосистеме ИИ.
FLEX также решает проблему дорогостоящего и рискованного метода обратного распространения ошибок, который часто приводил к «катастрофическому забыванию», когда новые знания вытесняли старые. Не так давно Google тоже представила новый подход к машинному обучению, который позволяет моделям осваивать новые задачи, не теряя навыков, приобретенных ранее.

