Adversarial attack is a technique for deceiving Machine Learning (ML) models, which provides a way to evaluate the adversarial robustness. In practice, attack algorithms are artificially selected and tuned by human experts to break a ML system. However, manual selection of attackers tends to be sub-optimal, leading to a mistakenly assessment of model security. In this paper, a new procedure called Composite Adversarial Attack (CAA) is proposed for automatically searching the best combination of attack algorithms and their hyper-parameters from a candidate pool of \textbf{32 base attackers}. We design a search space where attack policy is represented as an attacking sequence, i.e., the output of the previous attacker is used as the initialization input for successors. Multi-objective NSGA-II genetic algorithm is adopted for finding the strongest attack policy with minimum complexity. The experimental result shows CAA beats 10 top attackers on 11 diverse defenses with less elapsed time (\textbf{6 $\times$ faster than AutoAttack}), and achieves the new state-of-the-art on $l_{\infty}$, $l_{2}$ and unrestricted adversarial attacks.


翻译:Aversarial攻击是一种欺骗机器学习(ML)模型的技术,它为评估对抗性强力提供了一种评估方法。在实践中,攻击算法是人为选择的,由人类专家对攻击算法进行调整,以打破 ML 系统。然而,对攻击者的手工选择往往不够理想,导致对模型安全进行错误的评估。在本文中,提议采用一个称为复合反反对攻击(CAAA)的新程序,以自动搜索攻击算法及其超参数的最佳组合,从候选的\ textbf{332 基地攻击者库中搜索。我们设计了一个搜索空间,将攻击政策作为攻击顺序,即用上一个攻击者的输出作为后继者的初始输入。采用了多目标NSGA-II基因算法,以最复杂程度找到最强的攻击政策。实验结果显示CAAA用较慢的时间(\ textbf{6\timets $$_timets autAttack}11种不同的防御来击击击击手,并取得了新的州-abretial2, $_in}

12
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
29+阅读 · 2020年7月31日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Adversarial Metric Attack for Person Re-identification
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
Top
微信扫码咨询专知VIP会员