A lack of corpora has so far limited advances in integrating human gaze data as a supervisory signal in neural attention mechanisms for natural language processing(NLP). We propose a novel hybrid text saliency model (TSM) that, for the first time, combines a cognitive model of reading with explicit human gaze supervision in a single machine learning framework. On four different corpora we demonstrate that our hybrid TSM duration predictions are highly correlated with human gaze ground truth. We further propose a novel joint modelling approach to integrate TSM predictions into the attention layer of a network designed for a specific upstream NLP task without the need for any task-specific human gaze data. We demonstrate that our joint model outperforms the state of the art in paraphrase generation on the Quora Question Pairs corpus by more than 10% in BLEU-4 and achieves state-of-the-art performance for sentence compression on the challenging Google Sentence Compression corpus. As such, our work introduces a practical approach for bridging between data-driven and cognitive models and demonstrates a new way to integrate human gaze-guided neural attention into NLP tasks.


翻译:迄今为止,在将人类凝视数据作为自然语言处理神经关注机制的监督信号(NLP)方面,缺乏一个公司在整合人类凝视数据方面进展有限。我们提议了一个新型混合文本突出模型(TSM),首次将认知阅读模式与明确的人类凝视监督结合到一个单一的机器学习框架中。关于四个不同的公司,我们证明我们混合的TSM持续时间预测与人类凝视地面真理高度相关。我们进一步提出一个新的联合建模方法,将TSM预测纳入一个网络的注意层,这个网络是为特定上游的NLP任务设计的,而不需要任何特定任务的人类凝视数据。我们证明,我们的联合模型超越了Quora 问题Pa Pairs Cap 的代言语中的艺术状态,在BLEU-4中超过了10%以上,并实现了对具有挑战性的Google Pold Conpressional Compression的句压缩工作的最新表现。我们的工作引入了一种在数据驱动和认知模型之间建立联系的实用方法,并展示了一种将人类对视向神经的关注纳入NLP任务的新方式。

0
下载
关闭预览

相关内容

Integration:Integration, the VLSI Journal。 Explanation:集成,VLSI杂志。 Publisher:Elsevier。 SIT:http://dblp.uni-trier.de/db/journals/integration/
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
【资源】文本风格迁移相关资源汇总
专知
13+阅读 · 2020年7月11日
计算机 | EMNLP 2019等国际会议信息6条
Call4Papers
18+阅读 · 2019年4月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
4+阅读 · 2019年1月1日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关VIP内容
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
相关资讯
Top
微信扫码咨询专知VIP会员