In surrogate ensemble attacks, using more surrogate models yields higher transferability but lower resource efficiency. This practical trade-off between transferability and efficiency has largely limited existing attacks despite many pre-trained models are easily accessible online. In this paper, we argue that such a trade-off is caused by an unnecessary common assumption, i.e., all models should be \textit{identical} across iterations. By lifting this assumption, we can use as many surrogates as we want to unleash transferability without sacrificing efficiency. Concretely, we propose Selective Ensemble Attack (SEA), which dynamically selects diverse models (from easily accessible pre-trained models) across iterations based on our new interpretation of decoupling within-iteration and cross-iteration model diversity. In this way, the number of within-iteration models is fixed for maintaining efficiency, while only cross-iteration model diversity is increased for higher transferability. Experiments on ImageNet demonstrate the superiority of SEA in various scenarios. For example, when dynamically selecting 4 from 20 accessible models, SEA yields 8.5% higher transferability than existing attacks under the same efficiency. The superiority of SEA also generalizes to real-world systems, such as commercial vision APIs and large vision-language models. Overall, SEA opens up the possibility of adaptively balancing transferability and efficiency according to specific resource requirements.


翻译:在代理模型集成攻击中,使用更多代理模型能带来更高的可迁移性,但会降低资源效率。这种可迁移性与效率之间的实际权衡在很大程度上限制了现有攻击方法的发展,尽管许多预训练模型在线易于获取。本文认为,这种权衡源于一个不必要的常见假设,即所有模型在迭代间应保持完全一致。通过摒弃这一假设,我们能够在不牺牲效率的前提下,使用任意数量的代理模型来充分释放可迁移性。具体而言,我们提出了选择性集成攻击(SEA),该方法基于我们对迭代内与迭代间模型多样性的新解耦解释,在每次迭代中动态选择(从易于获取的预训练模型中)多样化的模型。通过这种方式,迭代内模型数量固定以维持效率,而仅通过增加迭代间模型多样性来提升可迁移性。在ImageNet上的实验证明了SEA在不同场景下的优越性。例如,当从20个可用模型中动态选择4个时,在相同效率下,SEA的可迁移性比现有攻击方法高出8.5%。SEA的优越性同样适用于现实世界系统,如商业视觉API和大型视觉语言模型。总体而言,SEA为根据具体资源需求自适应平衡可迁移性与效率开辟了新的可能性。

0
下载
关闭预览

相关内容

【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
专知会员服务
17+阅读 · 2021年7月13日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员