【CVPR2023】自异构融合知识挖掘的长尾视觉识别

2023 年 4 月 6 日 专知

深度神经网络在过去几十年里取得了巨大的进步。然而,由于现实世界的数据往往呈现长尾分布,普通深度模型往往严重偏向于大多数类别。为了解决这个问题,最先进的方法通常采用混合专家(MoE)来关注长尾分布的不同部分。这些方法的专家模型深度相同,忽略了不同类别对不同深度模型拟合的偏好可能不同的事实。为此,提出一种基于知识挖掘的自异构融合方法(Self-Heterogeneous Integration with Knowledge Excavation, SHIKE)。首先提出深度知识融合(deep Knowledge Fusion, DKF),为每个专家在一个网络中融合不同浅层和深层的特征,使专家在表示上更具多样性;基于DKF,进一步提出动态知识迁移(DKT),以减少最难的负类的影响,在MoE框架中,该类对尾部类有不可忽视的影响。因此,可以显著提高长尾数据的分类精度,特别是对于尾部类。SHIKE在CIFAR100-LT (IF100)、ImageNet-LT、iNaturalist 2018和Places-LT上分别取得了56.3%、60.3%、75.4%和41.9%的最先进性能。源代码可以在https://github.com/jinyan-06/SHIKE上找到。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复或发消息“SHKE” 就可以获取《【CVPR2023】自异构融合知识挖掘的长尾视觉识别》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
5

相关内容

【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
19+阅读 · 2021年3月18日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
16+阅读 · 2021年3月13日
【NeurIPS2022】基于最大熵编码的自监督学习
【CVPR2021】细粒度多标签分类
专知
44+阅读 · 2021年3月8日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
34+阅读 · 2019年11月7日
Knowledge Representation Learning: A Quantitative Review
VIP会员
相关VIP内容
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
26+阅读 · 2021年8月13日
专知会员服务
19+阅读 · 2021年3月18日
【CVPR2021】背景鲁棒的自监督视频表征学习
专知会员服务
16+阅读 · 2021年3月13日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员