现有的持续学习(CL)研究集中在减轻灾难性遗忘上,即模拟在学习新任务时对过去任务的表现恶化。然而,对于CL系统的训练效率研究不足,这限制了CL系统在资源有限场景下的实际应用。在这项工作中,我们提出了一个名为稀疏持续学习(SparCL)的新框架,这是第一个利用稀疏性在边缘设备上实现低成本持续学习的研究。SparCL通过权值稀疏性、数据效率和梯度稀疏性三个方面的协同作用实现了训练加速和准确性保持。提出任务感知动态掩码(TDM)在整个CL过程中学习一个稀疏的网络,动态数据移除(DDR)来删除信息量较少的训练数据,以及动态梯度掩码(DGM)来稀疏梯度更新。这些方法不仅提高了效率,还进一步减轻了灾难性的遗忘。SparCL通过最多23×少的FLOP训练,持续提高现有的最先进的(SOTA) CL方法的训练效率,并且令人惊讶的是,进一步提高SOTA精度最多1.7%。SparCL在效率和准确性方面也优于通过将SOTA稀疏训练方法应用于CL设置而获得的竞争基线。我们还在真实的手机上评估了SparCL的有效性,进一步表明了我们的方法的实用潜力。源代码将被发布。

https://arxiv.org/pdf/2209.09476.pdf

成为VIP会员查看完整内容
23

相关内容

【NeurIPS2022】黎曼扩散模型
专知会员服务
39+阅读 · 2022年9月15日
【ECCV2022】对比视觉Transformer的在线持续学习
专知会员服务
21+阅读 · 2022年7月29日
专知会员服务
14+阅读 · 2021年10月16日
专知会员服务
13+阅读 · 2021年10月13日
专知会员服务
22+阅读 · 2021年9月30日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
32+阅读 · 2021年3月7日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
32+阅读 · 2020年10月2日
【NeurIPS2021】视觉语言导航的课程学习
专知
1+阅读 · 2021年11月26日
【NeurIPS2021】任务导向的无监督域自适应
专知
1+阅读 · 2021年11月20日
【NeurIPS2021】多模态虚拟点三维检测
专知
0+阅读 · 2021年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年10月27日
Arxiv
0+阅读 · 2022年10月27日
Arxiv
0+阅读 · 2022年10月23日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关VIP内容
【NeurIPS2022】黎曼扩散模型
专知会员服务
39+阅读 · 2022年9月15日
【ECCV2022】对比视觉Transformer的在线持续学习
专知会员服务
21+阅读 · 2022年7月29日
专知会员服务
14+阅读 · 2021年10月16日
专知会员服务
13+阅读 · 2021年10月13日
专知会员服务
22+阅读 · 2021年9月30日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
32+阅读 · 2021年3月7日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
32+阅读 · 2020年10月2日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员