Procedural memory enables large language model (LLM) agents to internalize "how-to" knowledge, theoretically reducing redundant trial-and-error. However, existing frameworks predominantly suffer from a "passive accumulation" paradigm, treating memory as a static append-only archive. To bridge the gap between static storage and dynamic reasoning, we propose $\textbf{ReMe}$ ($\textit{Remember Me, Refine Me}$), a comprehensive framework for experience-driven agent evolution. ReMe innovates across the memory lifecycle via three mechanisms: 1) $\textit{multi-faceted distillation}$, which extracts fine-grained experiences by recognizing success patterns, analyzing failure triggers and generating comparative insights; 2) $\textit{context-adaptive reuse}$, which tailors historical insights to new contexts via scenario-aware indexing; and 3) $\textit{utility-based refinement}$, which autonomously adds valid memories and prunes outdated ones to maintain a compact, high-quality experience pool. Extensive experiments on BFCL-V3 and AppWorld demonstrate that ReMe establishes a new state-of-the-art in agent memory system. Crucially, we observe a significant memory-scaling effect: Qwen3-8B equipped with ReMe outperforms larger, memoryless Qwen3-14B, suggesting that self-evolving memory provides a computation-efficient pathway for lifelong learning. We release our code and the $\texttt{reme.library}$ dataset to facilitate further research.


翻译:程序记忆使大型语言模型(LLM)智能体能够内化“如何操作”的知识,理论上减少了冗余的试错过程。然而,现有框架主要受限于“被动积累”范式,将记忆视为静态的仅追加存档。为弥合静态存储与动态推理之间的差距,我们提出 $\textbf{ReMe}$($\textit{Remember Me, Refine Me}$),一个用于经验驱动智能体演化的综合框架。ReMe 通过三种机制创新性地覆盖记忆生命周期:1) $\textit{多层面提炼}$,通过识别成功模式、分析失败触发因素并生成对比性见解来提取细粒度经验;2) $\textit{上下文自适应重用}$,通过场景感知索引将历史见解适配到新情境;以及 3) $\textit{基于效用的精炼}$,自主添加有效记忆并修剪过时记忆,以维持紧凑、高质量的经验池。在 BFCL-V3 和 AppWorld 上的大量实验表明,ReMe 在智能体记忆系统中确立了新的最先进水平。关键的是,我们观察到显著的内存缩放效应:配备 ReMe 的 Qwen3-8B 超越了更大规模但无记忆的 Qwen3-14B,这表明自演化记忆为终身学习提供了一条计算高效的途径。我们发布了代码和 $\texttt{reme.library}$ 数据集以促进进一步研究。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
IEEE TPAMI | 基于标注偏差估计的实例相关PU学习
专知会员服务
12+阅读 · 2021年10月23日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员