论文题目:LGD: Label-guided Self-distillation for Object Detection 中文题目:LGD:用于物体检测的标签引导自蒸馏 论文链接:

https://www.zhuanzhi.ai/paper/4649789799b6a71809c04f330333e194

以往的检测蒸馏均依赖强预训练教师网络的知识。然而现实应用中未必能屡屡获得这样的教师。

由此我们提出了首个用于通用目标检测的自蒸馏框架,它通过跨物体(1)标签嵌入和(2) 学生网络特征的异构模态交互,来获取指导性知识,只需常规监督训练标签。

因此被称为标签引导自蒸馏 (Label-Guided Self-distillation, LGD)。LGD 在多种检测器/数据集下均取得明显提升,相比经典预训练教师蒸馏模型 FGFI 节省 51%的相对时间(除学生网络固有训练时间), 和 34%的绝对时间,且效果更佳。

成为VIP会员查看完整内容
14

相关内容

【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
【AAAI2022】锚框排序知识蒸馏的目标检测
专知会员服务
25+阅读 · 2022年2月10日
【AAAI2022】运用关系知识蒸馏提升对比学习
专知会员服务
35+阅读 · 2021年12月13日
【AAAI2022】领域自适应的主动学习:一种基于能量的方法
专知会员服务
42+阅读 · 2021年12月6日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
【AAAI2022】锚框排序知识蒸馏的目标检测
专知
0+阅读 · 2022年2月10日
【CVPR2021】端到端的全卷积目标检测器
专知
1+阅读 · 2021年4月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
2+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月18日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
Arxiv
21+阅读 · 2020年10月11日
Arxiv
11+阅读 · 2018年4月8日
VIP会员
相关VIP内容
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
【AAAI2022】锚框排序知识蒸馏的目标检测
专知会员服务
25+阅读 · 2022年2月10日
【AAAI2022】运用关系知识蒸馏提升对比学习
专知会员服务
35+阅读 · 2021年12月13日
【AAAI2022】领域自适应的主动学习:一种基于能量的方法
专知会员服务
42+阅读 · 2021年12月6日
【NeurIPS2021】用于物体检测的实例条件知识蒸馏
专知会员服务
19+阅读 · 2021年11月10日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员