多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。

精品内容

【博士论文】多任务学习视觉场景理解,140页pdf
【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
19+阅读 · 2月22日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
13+阅读 · 2021年12月21日
【NeurIPS2021】序一致因果图的多任务学习
专知会员服务
14+阅读 · 2021年11月7日
专知会员服务
45+阅读 · 2021年7月25日
专知会员服务
18+阅读 · 2021年7月14日
《多任务学习》最新综述论文,20页pdf
专知会员服务
104+阅读 · 2021年4月6日
最新《多任务学习》综述,39页pdf
专知会员服务
217+阅读 · 2020年7月10日
参考链接
父主题
微信扫码咨询专知VIP会员