As it has been unveiled that pre-trained language models (PLMs) are to some extent capable of recognizing syntactic concepts in natural language, much effort has been made to develop a method for extracting complete (binary) parses from PLMs without training separate parsers. We improve upon this paradigm by proposing a novel chart-based method and an effective top-K ensemble technique. Moreover, we demonstrate that we can broaden the scope of application of the approach into multilingual settings. Specifically, we show that by applying our method on multilingual PLMs, it becomes possible to induce non-trivial parses for sentences from nine languages in an integrated and language-agnostic manner, attaining performance superior or comparable to that of unsupervised PCFGs. We also verify that our approach is robust to cross-lingual transfer. Finally, we provide analyses on the inner workings of our method. For instance, we discover universal attention heads which are consistently sensitive to syntactic information irrespective of the input language.


翻译:由于人们已经公开表明,经过培训的语文模式在某种程度上能够承认自然语言的综合概念,我们已作出很大努力,制定一种方法,在不经过单独分析者培训的情况下从PLMS中提取完整的(二进制)剖析物。我们改进了这一范式,提出了一种以图表为基础的新方法和一种有效的最高合金技术。此外,我们还表明,我们可以将这种方法的应用范围扩大到多语种环境。具体地说,我们表明,通过在多语言的PLM中应用我们的方法,我们有可能以综合和语文保密的方式对九种语言的判决进行非三进制剖面,取得优于或与未受监督的PCFG系统相似的性能。我们还核实,我们的方法对于跨语言的转移是健全的。最后,我们提供了对我们方法内部工作的分析。例如,我们发现普遍关注的负责人对合成信息始终敏感,而不论输入的语言如何。

0
下载
关闭预览

相关内容

ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
7+阅读 · 2018年11月5日
Arxiv
6+阅读 · 2019年9月4日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
7+阅读 · 2018年11月5日
Top
微信扫码咨询专知VIP会员