We present a set of experiments to demonstrate that deep recurrent neural networks (RNNs) learn internal representations that capture soft hierarchical notions of syntax from highly varied supervision. We consider four syntax tasks at different depths of the parse tree; for each word, we predict its part of speech as well as the first (parent), second (grandparent) and third level (great-grandparent) constituent labels that appear above it. These predictions are made from representations produced at different depths in networks that are pretrained with one of four objectives: dependency parsing, semantic role labeling, machine translation, or language modeling. In every case, we find a correspondence between network depth and syntactic depth, suggesting that a soft syntactic hierarchy emerges. This effect is robust across all conditions, indicating that the models encode significant amounts of syntax even in the absence of an explicit syntactic training supervision.


翻译:我们提出了一系列实验,以证明深层的经常性神经网络(RNNS)学会了从高度差异的监管中捕捉软性的语法等级概念的内部表述。 我们考虑在剖析树的不同深度进行四种语法任务; 对于每个字,我们预测其部分的言语以及上面出现的第一(父母)、第二(祖父母)和第三(祖父母)构成标签。 这些预测来自不同深度的网络的表述,这些表达在经过预先训练的网络中,有四个目标之一:依赖分析、语义角色标签、机器翻译或语言建模。 在每一种情况下,我们发现网络深度与合成深度之间的对应,表明出现了软性语法等级。这种效果在所有条件下都是强有力的,表明即使在没有明确的合成培训监督的情况下,也存在大量语法的编码模型。

3
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
76+阅读 · 2020年2月3日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
别说还不懂依存句法分析
人工智能头条
23+阅读 · 2019年4月8日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
Hierarchy Parsing for Image Captioning
Arxiv
6+阅读 · 2019年9月10日
Attend More Times for Image Captioning
Arxiv
6+阅读 · 2018年12月8日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Arxiv
20+阅读 · 2018年1月17日
VIP会员
Top
微信扫码咨询专知VIP会员