Knowledge distillation transfers knowledge from the teacher network to the student one, with the goal of greatly improving the performance of the student network. Previous methods mostly focus on proposing feature transformation and loss functions between the same level's features to improve the effectiveness. We differently study the factor of connection path cross levels between teacher and student networks, and reveal its great importance. For the first time in knowledge distillation, cross-stage connection paths are proposed. Our new review mechanism is effective and structurally simple. Our finally designed nested and compact framework requires negligible computation overhead, and outperforms other methods on a variety of tasks. We apply our method to classification, object detection, and instance segmentation tasks. All of them witness significant student network performance improvement. Code is available at https://github.com/Jia-Research-Lab/ReviewKD


翻译:知识蒸馏从教师网络向学生网络转移知识,目的是大大改善学生网络的绩效; 以往的方法主要侧重于在同一层次的特征之间提出特征转换和损失功能,以提高效果; 我们用不同的方法研究教师和学生网络之间不同层次连接路径的因素,并揭示其重大意义; 首次提出了跨阶段连接路径; 我们的新审查机制既有效又结构简单; 我们最后设计的嵌套和紧凑框架需要忽略不计的计算间接费用, 并且比其他方法在各种任务上更优异。 我们运用我们的方法进行分类、物体探测和实例分割任务。 所有这些方法都见证了学生网络绩效的显著改进。 代码可在 https://github.com/Jia-Research-Lab/ReviewKD查阅。

1
下载
关闭预览

相关内容

专知会员服务
17+阅读 · 2020年9月6日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Fair Feature Distillation for Visual Recognition
Arxiv
0+阅读 · 2021年6月10日
Arxiv
0+阅读 · 2021年6月8日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
99+阅读 · 2020年3月4日
VIP会员
相关资讯
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Fair Feature Distillation for Visual Recognition
Arxiv
0+阅读 · 2021年6月10日
Arxiv
0+阅读 · 2021年6月8日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
99+阅读 · 2020年3月4日
Top
微信扫码咨询专知VIP会员