Neural ranking models have achieved remarkable progress and are now widely deployed in real-world applications such as Retrieval-Augmented Generation (RAG). However, like other neural architectures, they remain vulnerable to adversarial manipulations: subtle character-, word-, or phrase-level perturbations can poison retrieval results and artificially promote targeted candidates, undermining the integrity of search engines and downstream systems. Existing defenses either rely on heuristics with poor generalization or on certified methods that assume overly strong adversarial knowledge, limiting their practical use. To address these challenges, we propose RobustMask, a novel defense that combines the context-prediction capability of pretrained language models with a randomized masking-based smoothing mechanism. Our approach strengthens neural ranking models against adversarial perturbations at the character, word, and phrase levels. Leveraging both the pairwise comparison ability of ranking models and probabilistic statistical analysis, we provide a theoretical proof of RobustMask's certified top-K robustness. Extensive experiments further demonstrate that RobustMask successfully certifies over 20% of candidate documents within the top-10 ranking positions against adversarial perturbations affecting up to 30% of their content. These results highlight the effectiveness of RobustMask in enhancing the adversarial robustness of neural ranking models, marking a significant step toward providing stronger security guarantees for real-world retrieval systems.


翻译:神经排序模型已取得显著进展,并广泛应用于检索增强生成等现实应用中。然而,与其他神经架构类似,它们仍易受对抗性操纵的影响:细微的字符级、词级或短语级扰动可能污染检索结果,人为提升目标候选文档,从而损害搜索引擎及下游系统的完整性。现有防御方法要么依赖泛化能力较差的启发式策略,要么基于假设过强对抗知识的认证方法,限制了其实用性。为解决这些挑战,我们提出鲁棒掩码,这是一种结合预训练语言模型上下文预测能力与随机掩码平滑机制的新型防御方法。该方法能增强神经排序模型对字符、词和短语级别对抗扰动的防御能力。通过利用排序模型的成对比较能力与概率统计分析,我们为鲁棒掩码的认证前K名鲁棒性提供了理论证明。大量实验进一步表明,在对抗扰动影响高达30%文档内容的情况下,鲁棒掩码能成功认证超过20%的候选文档位于前10名排序位置。这些结果凸显了鲁棒掩码在增强神经排序模型对抗鲁棒性方面的有效性,标志着为现实检索系统提供更强安全保障的重要进展。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年5月28日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员