We consider a model of robust learning in an adversarial environment. The learner gets uncorrupted training data with access to possible corruptions that may be effected by the adversary during testing. The learner's goal is to build a robust classifier, which will be tested on future adversarial examples. The adversary is limited to $k$ possible corruptions for each input. We model the learner-adversary interaction as a zero-sum game. This model is closely related to the adversarial examples model of Schmidt et al. (2018); Madry et al. (2017). Our main results consist of generalization bounds for the binary and multiclass classification, as well as the real-valued case (regression). For the binary classification setting, we both tighten the generalization bound of Feige, Mansour, and Schapire (2015), and are also able to handle infinite hypothesis classes. The sample complexity is improved from $\mathcal{O}(\frac{1}{\epsilon^4}\log(\frac{|H|}{\delta}))$ to $\mathcal{O}\big(\frac{1}{\epsilon^2}(\sqrt{k VC(H)}\log^{\frac{3}{2}+\alpha}(k VC(H))+\log(\frac{1}{\delta})\big)$ for any $\alpha > 0$. Additionally, we extend the algorithm and generalization bound from the binary to the multiclass and real-valued cases. Along the way, we obtain results on fat-shattering dimension and Rademacher complexity of $k$-fold maxima over function classes; these may be of independent interest. For binary classification, the algorithm of Feige et al. (2015) uses a regret minimization algorithm and an ERM oracle as a black box; we adapt it for the multiclass and regression settings. The algorithm provides us with near-optimal policies for the players on a given training sample.


翻译:我们考虑在敌对环境中进行强力学习的模式。 学习者在测试期间获得不受干扰的培训数据, 并接触对手可能实施的腐败。 学习者的目标是建立一个强大的分类器, 在未来的敌对实例中测试。 对手仅限于每个输入可能发生的腐败 $k美元 。 我们模拟学习者- 反向互动为零和游戏。 这个模型与 Schmidt 等人( 2018年); Madry 等人( 2017年) 的对抗性范例非常相关。 我们的主要结果包括二进制和多级分类的通用框; 学习者的目标是构建一个强大的分类器, 在未来的对抗实例中测试。 对手仅限于每个输入的 $k 。 学习者- 反向互动者互动。 样本的复杂度从 $\ mathcal{ 1\\\\\\ listal_ floral_ flickr_ oral_ likeal_ likeal_ h\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ licreqal_ lic_ laxal lic) likeal lical lical livaldal exs a. slational_ exal_ exal_ exal_ exal_ exal_ exal_ exal_ exal_ exal_ a_ exal_ exxxxxxxxxxxxxxxxxx, exxxxx, exxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
机器学习的可解释性
专知会员服务
178+阅读 · 2020年8月27日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关VIP内容
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
机器学习的可解释性
专知会员服务
178+阅读 · 2020年8月27日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员