Many domain adaptation approaches rely on learning cross domain shared representations to transfer the knowledge learned in one domain to other domains. Traditional domain adaptation only considers adapting for one task. In this paper, we explore multi-task representation learning under the domain adaptation scenario. We propose a neural network framework that supports domain adaptation for multiple tasks simultaneously, and learns shared representations that better generalize for domain adaptation. We apply the proposed framework to domain adaptation for sequence tagging problems considering two tasks: Chinese word segmentation and named entity recognition. Experiments show that multi-task domain adaptation works better than disjoint domain adaptation for each task, and achieves the state-of-the-art results for both tasks in the social media domain.


翻译:许多领域适应办法依靠学习跨领域共享表述,将一个领域的知识传授给其他领域;传统领域适应办法只考虑适应一项任务;在本文件中,我们探讨在领域适应设想下开展多任务代表性学习;我们提议一个神经网络框架,支持同时开展多种任务的领域适应,并学习更普及领域适应的共同表述;我们运用拟议框架,将适应办法用于将问题排序与以下两项任务联系起来:中文文字分割和名称实体识别;实验显示,多任务领域适应工作比对每项任务进行脱节领域适应工作效果更好,并实现社会媒体领域两项任务的最新成果。

1
下载
关闭预览

相关内容

BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Arxiv
5+阅读 · 2020年3月17日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员