在真实的应用中,数据通常以增长的方式出现,其中数据量和类的数量可能会动态增加。这将给学习带来重大挑战:随着数据量或类的数量不断增加,人们必须立即调整神经模型的容量,以获得良好的性能。现有的方法要么忽视数据增长的本质,要么寻求对给定数据集独立搜索最优体系结构,因此无法针对变化的数据及时调整体系结构。为了解决这一问题,我们提出了一种神经结构自适应方法,即adaptive eXpert (AdaXpert),可以在不断增长的数据上有效地调整以前的结构。具体来说,我们引入了一个体系结构调整器,根据以前的体系结构以及当前和以前数据分布之间的不同程度,为每个数据快照生成合适的体系结构。此外,我们提出一个适应条件来确定调整的必要性,从而避免不必要的和耗时的调整。在两种增长场景(增加数据量和类数)上的大量实验证明了所提方法的有效性。

https://www.zhuanzhi.ai/paper/5b09e4a225a2ba1040ba9848b5a5cd24

成为VIP会员查看完整内容
24

相关内容

专知会员服务
31+阅读 · 2021年9月7日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
36+阅读 · 2021年6月19日
专知会员服务
80+阅读 · 2021年5月10日
【WWW2021】面向时空图预测的神经结构搜索
专知会员服务
22+阅读 · 2021年4月23日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
46+阅读 · 2020年12月26日
SIGIR2020 | 一种新颖的推荐系统重训练技巧
机器学习与推荐算法
6+阅读 · 2020年9月7日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
【综述】迁移自适应学习十年进展
专知
41+阅读 · 2019年11月26日
【泡泡图灵智库】协同视觉-惯性SLAM
泡泡机器人SLAM
28+阅读 · 2019年9月6日
迁移自适应学习最新综述,附21页论文下载
Arxiv
0+阅读 · 2021年9月8日
Arxiv
24+阅读 · 2021年6月25日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年9月7日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
36+阅读 · 2021年6月19日
专知会员服务
80+阅读 · 2021年5月10日
【WWW2021】面向时空图预测的神经结构搜索
专知会员服务
22+阅读 · 2021年4月23日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
46+阅读 · 2020年12月26日
微信扫码咨询专知VIP会员