While humans process language incrementally, the best language encoders currently used in NLP do not. Both bidirectional LSTMs and Transformers assume that the sequence that is to be encoded is available in full, to be processed either forwards and backwards (BiLSTMs) or as a whole (Transformers). We investigate how they behave under incremental interfaces, when partial output must be provided based on partial input seen up to a certain time step, which may happen in interactive systems. We test five models on various NLU datasets and compare their performance using three incremental evaluation metrics. The results support the possibility of using bidirectional encoders in incremental mode while retaining most of their non-incremental quality. The "omni-directional" BERT model, which achieves better non-incremental performance, is impacted more by the incremental access. This can be alleviated by adapting the training regime (truncated training), or the testing procedure, by delaying the output until some right context is available or by incorporating hypothetical right contexts generated by a language model like GPT-2.


翻译:虽然人类过程语言是渐进式的,但目前在NLP中使用的最佳语言编码器却不是。双向LSTMs和变换器都假定要编码的序列是完全的,可以进行前向和后向处理(BILSTMs)或整个(Transurds)处理。我们调查它们如何在递增界面下运作,如果部分输出必须基于在互动系统中可能发生的部分输入达到一定时间步骤,则部分输出必须提供。我们测试了五个关于各种NLU数据集的模型,并用三种递增评价指标比较它们的性能。结果支持了使用双向编码器的递增模式的可能性,同时保留了大多数非递增质量。“全向”BERT模型,它取得更好的非递增性功能,受增访问的影响更大。通过调整培训制度(调整培训),或测试程序,将输出延迟到某种合适的环境,或者通过纳入GPT-2等语言模型产生的假设性右环境,可以减轻这一影响。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
278+阅读 · 2020年11月26日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
64+阅读 · 2020年7月12日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
将门创投
7+阅读 · 2018年8月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Knowledge Distillation from Internal Representations
Arxiv
4+阅读 · 2019年10月8日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
8+阅读 · 2018年4月8日
VIP会员
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
将门创投
7+阅读 · 2018年8月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员