In mutation-based greybox fuzzing, generating high-quality input seeds for the initial corpus is essential for effective fuzzing. Rather than conducting separate phases for generating a large corpus and subsequently minimizing it, we propose FuzzWise which integrates them into one process to generate the optimal initial corpus of seeds (ICS). FuzzWise leverages a multi-agent framework based on Large Language Models (LLMs). The first LLM agent generates test cases for the target program. The second LLM agent, which functions as a predictive code coverage module, assesses whether each generated test case will enhance the overall coverage of the current corpus. The streamlined process allows each newly generated test seed to be immediately evaluated for its contribution to the overall coverage. FuzzWise employs a predictive approach using an LLM and eliminates the need for actual execution, saving computational resources and time, particularly in scenarios where the execution is not desirable or even impossible. Our empirical evaluation demonstrates that FuzzWise generates significantly fewer test cases than baseline methods. Despite the lower number of test cases, FuzzWise achieves high code coverage and triggers more runtime errors compared to the baselines. Moreover, it is more time-efficient and coverage-efficient in producing an initial corpus catching more errors.


翻译:在基于变异的灰盒模糊测试中,为初始语料库生成高质量的输入种子对于有效的模糊测试至关重要。与先生成大规模语料库再对其进行最小化的分离阶段不同,我们提出了FuzzWise,它将这两个阶段集成到一个流程中,以生成最优的初始种子语料库。FuzzWise利用了一个基于大语言模型的多智能体框架。第一个LLM智能体为目标程序生成测试用例。第二个LLM智能体充当预测性代码覆盖率模块,评估每个生成的测试用例是否会提升当前语料库的整体覆盖率。这一简化的流程允许每个新生成的测试种子都能立即被评估其对整体覆盖率的贡献。FuzzWise采用基于LLM的预测方法,无需实际执行程序,从而节省了计算资源和时间,尤其是在实际执行不可取甚至不可能的场景中。我们的实证评估表明,FuzzWise生成的测试用例数量显著少于基线方法。尽管测试用例数量更少,但与基线相比,FuzzWise实现了更高的代码覆盖率并触发了更多的运行时错误。此外,在生成能捕获更多错误的初始语料库方面,FuzzWise具有更高的时间效率和覆盖率效率。

0
下载
关闭预览

相关内容

【CVPR2024】ViewDiff: 3D一致的图像生成与文本到图像模型
专知会员服务
30+阅读 · 2024年3月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员