Unsupervised domain adaptive classification intends to improve theclassification performance on unlabeled target domain. To alleviate the adverse effect of domain shift, many approaches align the source and target domains in the feature space. However, a feature is usually taken as a whole for alignment without explicitly making domain alignment proactively serve the classification task, leading to sub-optimal solution. What sub-feature should be aligned for better adaptation is under-explored. In this paper, we propose an effective Task-oriented Alignment (ToAlign) for unsupervised domain adaptation (UDA). We study what features should be aligned across domains and propose to make the domain alignment proactively serve classification by performing feature decomposition and alignment under the guidance of the prior knowledge induced from the classification taskitself. Particularly, we explicitly decompose a feature in the source domain intoa task-related/discriminative feature that should be aligned, and a task-irrelevant feature that should be avoided/ignored, based on the classification meta-knowledge. Extensive experimental results on various benchmarks (e.g., Office-Home, Visda-2017, and DomainNet) under different domain adaptation settings demonstrate theeffectiveness of ToAlign which helps achieve the state-of-the-art performance.


翻译:不受监督的域适应性分类旨在改进未加标签的目标域域的分类性性能。 为了减轻域变的不利影响,许多方法在特性空间中调整源和目标域。 但是,通常将一个特性作为一个整体来调整,而没有在分类任务本身产生的先前知识的指导下进行特征分解和调整,而是主动地使域对齐,从而实现分类任务任务上的最佳解决办法。为了更好地适应,应当调整哪些次特性。在本文件中,我们建议为不受监督的域适应(UDA)提供一个有效的面向任务的对齐(To Align)办法。我们研究哪些特点应在各个域间统一,并建议在分类任务本身的先前知识指导下,通过执行特征分解和对齐来积极为分类服务。特别是,我们明确将源域内的一个特性分解成一个与任务有关/异性特点,这些特点应当统一起来,并根据分类元知识,避免/连接与任务有关的特性。我们研究各种基准(例如,Office-Home,Visda-2017,Domain)的广泛实验性结果,从而在不同的域内显示业绩的效能。

5
下载
关闭预览

相关内容

专知会员服务
49+阅读 · 2021年7月10日
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
行人再识别ReID论文阅读-SPGAN
极市平台
10+阅读 · 2018年2月26日
ACL 2017自然语言处理精选论文
CSDN大数据
5+阅读 · 2017年9月14日
VIP会员
相关VIP内容
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
行人再识别ReID论文阅读-SPGAN
极市平台
10+阅读 · 2018年2月26日
ACL 2017自然语言处理精选论文
CSDN大数据
5+阅读 · 2017年9月14日
Top
微信扫码咨询专知VIP会员