Many natural language processing tasks solely rely on sparse dependencies between a few tokens in a sentence. Soft attention mechanisms show promising performance in modeling local/global dependencies by soft probabilities between every two tokens, but they are not effective and efficient when applied to long sentences. By contrast, hard attention mechanisms directly select a subset of tokens but are difficult and inefficient to train due to their combinatorial nature. In this paper, we integrate both soft and hard attention into one context fusion model, "reinforced self-attention (ReSA)", for the mutual benefit of each other. In ReSA, a hard attention trims a sequence for a soft self-attention to process, while the soft attention feeds reward signals back to facilitate the training of the hard one. For this purpose, we develop a novel hard attention called "reinforced sequence sampling (RSS)", selecting tokens in parallel and trained via policy gradient. Using two RSS modules, ReSA efficiently extracts the sparse dependencies between each pair of selected tokens. We finally propose an RNN/CNN-free sentence-encoding model, "reinforced self-attention network (ReSAN)", solely based on ReSA. It achieves state-of-the-art performance on both Stanford Natural Language Inference (SNLI) and Sentences Involving Compositional Knowledge (SICK) datasets.


翻译:许多自然语言处理任务都完全依赖一个句子中几个符号之间的零散依赖性。 软关注机制显示,通过每两个符号之间的软概率来模拟地方/全球依赖性,表现良好, 软概率每两个符号之间的软概率, 但当应用到长句子时效果和效率不高。 相反, 硬关注机制直接选择一组符号, 但由于其组合性质, 很难和低效地进行培训。 在本文件中, 我们将软和硬关注都纳入一个背景融合模式, “ 强制自我保护( ReSA) ”, 以相互受益。 在 ReSA 中, 硬关注将软性自我保护排序为软性进程, 而软性关注又为对硬性句子的培训提供回报信号。 为此, 我们开发了一种新的硬关注, 叫做“ 强化序列抽样(RSS) ”, 通过政策梯度选择同时和训练的代号。 使用两个RSS 模块, ReSA 高效地提取了每对选定标识之间稀少的依赖性。 我们最后建议了一个基于 RNN/ CN 免费句号的自省的自省(S- recocolence) AS- recust- recusting Stat- recust- Regional Stefol) AS) AS- sal AS- sal- semportmental- sal- sheal- sal- sal- sal- sal- semportmentional- sal- sal- sal- sal- sal- sal- sal- sal- semportmental- sal- sal- sal- sal- sal- sem

16
下载
关闭预览

相关内容

【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
54+阅读 · 2019年10月17日
注意力机制介绍,Attention Mechanism
专知会员服务
164+阅读 · 2019年10月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
24+阅读 · 2019年5月18日
Attention!注意力机制模型最新综述
中国人工智能学会
18+阅读 · 2019年4月8日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
6+阅读 · 2019年4月8日
VIP会员
Top
微信扫码咨询专知VIP会员