我们提出了一个概念上简单且轻量级的框架,通过结合知识蒸馏和数据增强来提高视觉模型的鲁棒性。我们解决了更大模型并不意味着更好的教师这一猜想,通过展示从预训练基础模型进行蒸馏时对于分布外鲁棒性的显著增益。基于这一发现,我们提出了离散对抗蒸馏 (DAD),它利用一个鲁棒的教师生成对抗样本,并使用VQGAN对它们进行离散化,从而创造出比标准数据增强技术更有信息量的样本。我们为在知识蒸馏与数据增强环境下使用鲁棒教师提供了一个理论框架,并展示了在不同学生架构上对于分布外鲁棒性和干净准确性的显著增益。值得注意的是,与类似技术相比,我们的方法只增加了微小的计算开销,并且可以轻松地与其他数据增强结合以进一步提高效果。

https://www.zhuanzhi.ai/paper/c7185589ae7c0b1f8eca923294cb1470

成为VIP会员查看完整内容
13

相关内容

【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【ICML2023】在受限逆强化学习中的可识别性和泛化能力
专知会员服务
23+阅读 · 2023年6月5日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
34+阅读 · 2023年5月27日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年6月26日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
27+阅读 · 2020年10月24日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【ICML2023】在受限逆强化学习中的可识别性和泛化能力
专知会员服务
23+阅读 · 2023年6月5日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
34+阅读 · 2023年5月27日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年6月26日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
35+阅读 · 2021年6月3日
专知会员服务
27+阅读 · 2020年10月24日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员