Software debugging is a time-consuming endeavor involving a series of steps, such as fault localization and patch generation, each requiring thorough analysis and a deep understanding of the underlying logic. While large language models (LLMs) demonstrate promising potential in coding tasks, their performance in debugging remains limited. Current LLM-based methods often focus on isolated steps and struggle with complex bugs. In this paper, we propose the first end-to-end framework, FixAgent, for unified debugging through multi-agent synergy. It mimics the entire cognitive processes of developers, with each agent specialized as a particular component of this process rather than mirroring the actions of an independent expert as in previous multi-agent systems. Agents are coordinated through a three-level design, following a cognitive model of debugging, allowing adaptive handling of bugs with varying complexities. Experiments on extensive benchmarks demonstrate that FixAgent significantly outperforms state-of-the-art repair methods, fixing 1.25$\times$ to 2.56$\times$ bugs on the repo-level benchmark, Defects4J. This performance is achieved without requiring ground-truth root-cause code statements, unlike the baselines. Our source code is available on https://github.com/AcceptePapier/UniDebugger.


翻译:软件调试是一项耗时的任务,涉及故障定位和补丁生成等一系列步骤,每个步骤都需要深入分析和深刻理解底层逻辑。尽管大语言模型(LLMs)在编码任务中展现出巨大潜力,但其在调试方面的性能仍然有限。当前基于LLM的方法通常专注于孤立的步骤,难以处理复杂的错误。本文中,我们提出了首个端到端框架FixAgent,通过多智能体协同实现统一调试。它模拟了开发人员的完整认知过程,每个智能体专门负责该过程中的特定组成部分,而非像以往多智能体系统那样模仿独立专家的行为。智能体通过三层设计进行协调,遵循调试的认知模型,从而能够自适应地处理不同复杂度的错误。在广泛基准测试上的实验表明,FixAgent显著优于最先进的修复方法,在仓库级基准测试Defects4J上修复的错误数量达到基线的1.25倍至2.56倍。与基线方法不同,这一性能的取得无需依赖真实根因代码语句。我们的源代码可在https://github.com/AcceptePapier/UniDebugger获取。

0
下载
关闭预览

相关内容

论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员