Locating the files and functions requiring modification in large open-source software (OSS) repositories is challenging due to their scale and structural complexity. Existing large language model (LLM)-based methods typically treat this as a repository-level retrieval task and rely on multiple auxiliary tools, which overlook code execution logic and complicate model control. We propose RepoNavigator, an LLM agent equipped with a single execution-aware tool-jumping to the definition of an invoked symbol. This unified design reflects the actual flow of code execution while simplifying tool manipulation. RepoNavigator is trained end-to-end via Reinforcement Learning (RL) directly from a pretrained model, without any closed-source distillation. Experiments demonstrate that RL-trained RepoNavigator achieves state-of-the-art performance, with the 7B model outperforming 14B baselines, the 14B model surpassing 32B competitors, and even the 32B model exceeding closed-source models such as Claude-3.7. These results confirm that integrating a single, structurally grounded tool with RL training provides an efficient and scalable solution for repository-level issue localization.


翻译:在大型开源软件(OSS)仓库中,由于其规模庞大且结构复杂,准确定位需要修改的文件和函数是一项具有挑战性的任务。现有基于大语言模型(LLM)的方法通常将此视为仓库级检索任务,并依赖多种辅助工具,这种做法忽略了代码执行逻辑,并使模型控制变得复杂。我们提出了RepoNavigator,这是一种配备单一执行感知工具——跳转到被调用符号定义——的LLM智能体。这一统一设计反映了代码执行的实际流程,同时简化了工具操作。RepoNavigator通过强化学习(RL)从预训练模型直接进行端到端训练,无需任何闭源蒸馏。实验表明,经过RL训练的RepoNavigator实现了最先进的性能:7B模型优于14B基线模型,14B模型超越了32B竞争模型,甚至32B模型的表现也超过了Claude-3.7等闭源模型。这些结果证实,将单一、结构化的工具与RL训练相结合,为仓库级问题定位提供了一种高效且可扩展的解决方案。

0
下载
关闭预览

相关内容

《用于代码弱点识别的 LLVM 中间表示》CMU
专知会员服务
14+阅读 · 2022年12月12日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
22+阅读 · 2021年4月20日
Kaggle知识点:伪标签Pseudo Label
AINLP
40+阅读 · 2020年8月9日
【NeurIPS2019】图变换网络:Graph Transformer Network
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员