在生物学习中,数据不仅被用来提高当前任务的性能,也被用来提高以前遇到的和尚未遇到的任务的性能。与此相反,经典的机器学习,我们定义为从一张白纸开始,只使用手头的单一任务的数据。虽然典型的迁移学习算法可以提高未来任务的性能,但在学习新任务时,它们在先前任务上的性能会下降(称为遗忘)。最近许多持续或终身学习的方法都试图在新任务中保持性能。但是,努力避免遗忘将目标定得过低:终身学习的目标,无论是生物还是人工,都应该是提高过去任务(后向转移)和未来任务的前向转移与任何新数据的性能。我们的关键见解是,即使在其他任务上训练的学习者往往不能对当前的任务做出有用的决定,但他们可能已经学会了对这项任务有用的表征。因此,尽管集合决策是不可能的,但只要跨任务的分布足够相似,集合表征就会有好处。此外,我们可以在准线性空间和时间内将不同任务独立学习的表征集合起来。因此,我们提出了两种算法:(1)树和(2)网络的表示集合。这两种算法都在各种模拟和真实的数据场景中展示了前向和后向转移,包括表格、图像和口语,以及对抗性任务。这与我们所比较的参考算法形成了鲜明的对比,所有这些算法都不能向前或向后转移,或者两者都不能,尽管其中许多算法需要二次空间或时间的复杂性。

成为VIP会员查看完整内容
36

相关内容

《用于目标跟踪的认知雷达框架》85页报告
专知会员服务
68+阅读 · 2023年2月27日
《对抗性几何规划研究》2022最新论文,捷克理工大学
专知会员服务
29+阅读 · 2022年10月30日
《自监督学习》最新报告,45页ppt
专知会员服务
74+阅读 · 2022年9月14日
《多任务学习》最新综述论文,20页pdf
专知会员服务
121+阅读 · 2021年4月6日
【布朗大学David Abel博士论文】强化学习抽象理论,297页pdf
《自监督学习》最新报告,45页ppt
专知
1+阅读 · 2022年9月14日
实验室学生参加 IJCAI 2019会议并做报告
inpluslab
16+阅读 · 2019年8月25日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年6月24日
Arxiv
16+阅读 · 2021年11月27日
Arxiv
26+阅读 · 2021年5月17日
Arxiv
15+阅读 · 2019年9月30日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年1月11日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2023年6月24日
Arxiv
16+阅读 · 2021年11月27日
Arxiv
26+阅读 · 2021年5月17日
Arxiv
15+阅读 · 2019年9月30日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年1月11日
微信扫码咨询专知VIP会员