Textual Vulnerability Descriptions (TVDs) are crucial for security analysts to understand and address software vulnerabilities. However, the key aspect inconsistencies in TVDs from different repositories pose challenges for achieving a comprehensive understanding of vulnerabilities. Existing approaches aim to mitigate inconsistencies by aligning TVDs with external knowledge bases, but they often discard valuable information and fail to synthesize comprehensive representations. In this paper, we propose a domain-constrained LLM-based synthesis framework for unifying key aspects of TVDs. Our framework consists of three stages: 1) Extraction, guided by rule-based templates to ensure all critical details are captured; 2) Self-evaluation, using domain-specific anchor words to assess semantic variability across sources; and 3) Fusion, leveraging information entropy to reconcile inconsistencies and prioritize relevant details. This framework improves synthesis performance, increasing the F1 score for key aspect augmentation from 0.82 to 0.87, while enhancing comprehension and efficiency by over 30\%. We further develop Digest Labels, a practical tool for visualizing TVDs, which human evaluations show significantly boosts usability.


翻译:文本漏洞描述(TVDs)对于安全分析师理解和处理软件漏洞至关重要。然而,来自不同存储库的TVDs中关键方面存在不一致性,这为全面理解漏洞带来了挑战。现有方法旨在通过将TVDs与外部知识库对齐来缓解不一致性,但往往丢弃了有价值的信息,且未能合成全面的表征。本文提出了一种基于领域约束的大语言模型合成框架,用于统一TVDs的关键方面。该框架包含三个阶段:1)提取阶段,基于规则模板引导以确保捕获所有关键细节;2)自评估阶段,使用领域特定的锚定词评估不同来源的语义变异性;3)融合阶段,利用信息熵调和不一致性并优先处理相关细节。该框架提升了合成性能,将关键方面增强的F1分数从0.82提高至0.87,同时将理解效率和效率提升超过30%。我们进一步开发了Digest Labels,一种用于可视化TVDs的实用工具,人工评估显示其显著提升了可用性。

0
下载
关闭预览

相关内容

AI生成代码缺陷综述
专知会员服务
13+阅读 · 12月8日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员