The accessibility surge and abuse risks of user-friendly image editing models have created an urgent need for generalizable, up-to-date methods for Image Manipulation Detection and Localization (IMDL). Current IMDL research typically uses cross-dataset evaluation, where models trained on one benchmark are tested on others. However, this simplified evaluation approach conceals the fragility of existing methods when handling diverse AI-generated content, leading to misleading impressions of progress. This paper challenges this illusion by proposing NeXT-IMDL, a large-scale diagnostic benchmark designed not just to collect data, but to probe the generalization boundaries of current detectors systematically. Specifically, NeXT-IMDL categorizes AIGC-based manipulations along four fundamental axes: editing models, manipulation types, content semantics, and forgery granularity. Built upon this, NeXT-IMDL implements five rigorous cross-dimension evaluation protocols. Our extensive experiments on 11 representative models reveal a critical insight: while these models perform well in their original settings, they exhibit systemic failures and significant performance degradation when evaluated under our designed protocols that simulate real-world, various generalization scenarios. By providing this diagnostic toolkit and the new findings, we aim to advance the development towards building truly robust, next-generation IMDL models.


翻译:用户友好型图像编辑模型的易用性激增及其滥用风险,对开发具有良好泛化能力且紧跟技术发展的图像篡改检测与定位方法提出了迫切需求。当前的IMDL研究通常采用跨数据集评估,即在某一基准上训练的模型在其他基准上进行测试。然而,这种简化的评估方法掩盖了现有方法在处理多样化AI生成内容时的脆弱性,导致了对研究进展的误导性认知。本文通过提出NeXT-IMDL来挑战这种假象。NeXT-IMDL是一个大规模诊断性基准,其设计目的不仅是收集数据,更是为了系统地探究当前检测器的泛化边界。具体而言,NeXT-IMDL沿着四个基本维度对基于AIGC的篡改操作进行分类:编辑模型、篡改类型、内容语义和伪造粒度。在此基础上,NeXT-IMDL实施了五种严格的跨维度评估协议。我们对11个代表性模型进行的广泛实验揭示了一个关键发现:尽管这些模型在其原始设定下表现良好,但在我们设计的、模拟真实世界多样化泛化场景的协议下进行评估时,它们表现出系统性失效和显著的性能下降。通过提供这套诊断工具包和新的发现,我们旨在推动开发真正鲁棒的下一代IMDL模型。

0
下载
关闭预览

相关内容

Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员