成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
多任务学习
关注
161
多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
综合
百科
VIP
热门
动态
论文
精华
Flexible Multitask Learning with Factorized Diffusion Policy
Arxiv
0+阅读 · 12月26日
Simplifying Multi-Task Architectures Through Task-Specific Normalization
Arxiv
0+阅读 · 12月23日
Adaptive Multi-task Learning for Probabilistic Load Forecasting
Arxiv
0+阅读 · 12月23日
Operator-Based Generalization Bound for Deep Learning: Insights on Multi-Task Learning
Arxiv
0+阅读 · 12月22日
Reason2Decide: Rationale-Driven Multi-Task Learning
Arxiv
0+阅读 · 12月23日
Developing Fairness-Aware Task Decomposition to Improve Equity in Post-Spinal Fusion Complication Prediction
Arxiv
0+阅读 · 11月29日
Co-Training Vision Language Models for Remote Sensing Multi-task Learning
Arxiv
0+阅读 · 11月26日
Task-Specific Sparse Feature Masks for Molecular Toxicity Prediction with Chemical Language Models
Arxiv
0+阅读 · 12月12日
FairMT: Fairness for Heterogeneous Multi-Task Learning
Arxiv
0+阅读 · 11月29日
Decoding Fake Narratives in Spreading Hateful Stories: A Dual-Head RoBERTa Model with Multi-Task Learning
Arxiv
0+阅读 · 12月18日
3D-Aware Multi-Task Learning with Cross-View Correlations for Dense Scene Understanding
Arxiv
0+阅读 · 11月25日
Collaborative Management for Chronic Diseases and Depression: A Double Heterogeneity-based Multi-Task Learning Method
Arxiv
0+阅读 · 11月20日
VISAT: Benchmarking Adversarial and Distribution Shift Robustness in Traffic Sign Recognition with Visual Attributes
Arxiv
0+阅读 · 10月29日
Robust-Multi-Task Gradient Boosting
Arxiv
0+阅读 · 10月7日
DeepChest: Dynamic Gradient-Free Task Weighting for Effective Multi-Task Learning in Chest X-ray Classification
Arxiv
0+阅读 · 5月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top