Word order is a significant distinctive feature to differentiate languages. In this paper, we investigate cross-lingual transfer and posit that an order-agnostic model will perform better when transferring to distant foreign languages. To test our hypothesis, we train dependency parsers on an English corpus and evaluate their transfer performance on 30 other languages. Specifically, we compare encoders and decoders based on Recurrent Neural Networks (RNNs) and modified self-attentive architectures. The former rely on sequential information while the latter are more flexible at modeling token order. Detailed analysis shows that RNN-based architectures transfer well to languages that are close to English, while self-attentive models have better overall cross-lingual transferability and perform especially well on distant languages.


翻译:单词顺序是区分语言的重要特征。 在本文中, 我们调查跨语言传输, 并假设在向遥远的外语转移时, 命令不可知性模式效果会更好 。 为了测试我们的假设, 我们培训英国文的依赖分析员, 并评估其他30种语言的转移表现 。 具体地说, 我们比较基于经常性神经网络( RNN) 和 修改过的自适应结构的编码器和解码器。 前者依赖于相继信息, 而后者在模拟象征性命令上则比较灵活 。 详细分析显示, 以 RNN 为基础的结构向接近英语的语言转移得很好, 而自强化模型在整体上更便于跨语言的传输, 并且对遥远的语言表现得特别好 。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
250+阅读 · 2020年4月19日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2018年3月2日
VIP会员
Top
微信扫码咨询专知VIP会员