多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
遥感跨模态智能解译:模型、数据与应用
专知会员服务
65+阅读 · 2023年6月4日
【博士论文】多任务学习视觉场景理解,140页pdf
专知会员服务
88+阅读 · 2022年4月5日
【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
22+阅读 · 2022年2月22日
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
19+阅读 · 2021年12月21日
【NeurIPS2021】序一致因果图的多任务学习
专知会员服务
19+阅读 · 2021年11月7日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
21+阅读 · 2021年7月14日
参考链接
父主题
微信扫码咨询专知VIP会员