Deep neural networks are vulnerable to adversarial examples that mislead the models with imperceptible perturbations. Though adversarial attacks have achieved incredible success rates in the white-box setting, most existing adversaries often exhibit weak transferability in the black-box setting, especially under the scenario of attacking models with defense mechanisms. In this work, we propose a new method called variance tuning to enhance the class of iterative gradient based attack methods and improve their attack transferability. Specifically, at each iteration for the gradient calculation, instead of directly using the current gradient for the momentum accumulation, we further consider the gradient variance of the previous iteration to tune the current gradient so as to stabilize the update direction and escape from poor local optima. Empirical results on the standard ImageNet dataset demonstrate that our method could significantly improve the transferability of gradient-based adversarial attacks. Besides, our method could be used to attack ensemble models or be integrated with various input transformations. Incorporating variance tuning with input transformations on iterative gradient-based attacks in the multi-model setting, the integrated method could achieve an average success rate of 90.1% against nine advanced defense methods, improving the current best attack performance significantly by 85.1% . Code is available at https://github.com/JHL-HUST/VT.


翻译:深心神经网络很容易受到以无法察觉的干扰来误导模型的对抗性例子。虽然对抗性攻击在白箱设置中取得了令人难以置信的成功率,但大多数现有对手在黑箱设置中往往表现出薄弱的可转移性,特别是在使用防御机制攻击模型的情况下。在这项工作中,我们提议了一种叫做差异调的新方法,以提升迭代梯度攻击方法的等级,并提高其攻击性转移性。具体地说,在计算梯度的每一次迭代时,而不是直接使用当前梯度进行动力积累,我们进一步考虑以前的迭代的梯度差异,以调整当前梯度,从而稳定更新方向并摆脱当地落后的奥地马。标准图像网络数据集的经验性结果表明,我们的方法可以大大改善基于梯度的对抗性攻击的可转移性。此外,我们的方法可以用来攻击基于迭代梯度攻击的模型或与各种输入变异性。在多模型设置的迭代梯度攻击中采用差异调,我们进一步考虑以前的迭代梯度调整方法的梯度差异性变化,以便稳定当前梯度的梯度变化率平均达到90.1%,从而稳定更新方向,从而摆脱落后的偏向当地偏向偏向偏向偏向偏向偏向偏向当地偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向偏向。标准的偏向偏向偏向偏向。标准的图像偏向。标准的图像偏向。标准的图像。标准的图像。标准的图像。标准的图像,在标准的图像,标准图像网格,在标准的图像网格数据网格数据库中显示标准数据集中,可以大大改进到最偏向式的路径图式数据集中,可以大大改进了以85.

0
下载
关闭预览

相关内容

GANs最新进展,30页ppt,GANs: the story so far
专知会员服务
42+阅读 · 2020年8月2日
Diganta Misra等人提出新激活函数Mish,在一些任务上超越RuLU
专知会员服务
14+阅读 · 2019年10月15日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年10月12日
Arxiv
0+阅读 · 2021年10月8日
Arxiv
0+阅读 · 2021年10月8日
Arxiv
12+阅读 · 2020年12月10日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
创业邦杂志
5+阅读 · 2019年3月27日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年10月12日
Arxiv
0+阅读 · 2021年10月8日
Arxiv
0+阅读 · 2021年10月8日
Arxiv
12+阅读 · 2020年12月10日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
Top
微信扫码咨询专知VIP会员