在一个持续的循环,在这个循环中,对对抗攻击更强的防御随后被更高级的防御感知攻击打破。我们提出了一种结束此循环的新方法,即通过使攻击者生成语义上类似于攻击目标类的输入来“转移”对抗攻击。为此,我们首先提出一种基于胶囊网络的更强大的防御,它结合了三种检测机制来实现对标准攻击和防御感知攻击的最新检测性能。然后,我们进行了一项人体研究,要求参与者对攻击产生的图像进行标记,结果表明,针对我们的防御系统的未检测到的攻击通常与对抗目标类相似。这些攻击图像不能再被称为“对抗性的”,因为我们的网络像人类一样对它们进行分类。

成为VIP会员查看完整内容
24

相关内容

IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
揭秘|多伦多大学反人脸识别,身份欺骗成功率达99.5%
机器人大讲堂
6+阅读 · 2018年6月9日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关主题
微信扫码咨询专知VIP会员