在这项工作中,我们旨在在两大重要的机器学习研究领域之间建立紧密联系:持续学习和序列建模。也就是说,我们建议将持续学习表述为一个序列建模问题,从而允许使用先进的序列模型来进行持续学习。在此表述下,持续学习过程变成了序列模型的前向传递。通过采用元持续学习(MCL)框架,我们可以在元级上训练序列模型,处理多个持续学习情节。作为我们新表述的一个具体示例,我们展示了Transformers及其高效变体作为MCL方法的应用。我们在七个基准测试上的实验,涵盖了分类和回归,显示序列模型可以成为一般MCL的有吸引力的解决方案。

https://www.zhuanzhi.ai/paper/94502ea5795b6b063f921a4b9876c8bd

成为VIP会员查看完整内容
31

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
29+阅读 · 2023年4月29日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年6月26日
专知会员服务
35+阅读 · 2021年6月3日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
专知会员服务
41+阅读 · 2020年2月20日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年12月5日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
15+阅读 · 2023年3月17日
Arxiv
67+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
29+阅读 · 2023年4月29日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
18+阅读 · 2021年9月23日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年6月26日
专知会员服务
35+阅读 · 2021年6月3日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
专知会员服务
41+阅读 · 2020年2月20日
相关基金
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
相关论文
Arxiv
0+阅读 · 2023年12月5日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
15+阅读 · 2023年3月17日
Arxiv
67+阅读 · 2022年9月7日
微信扫码咨询专知VIP会员