跨越注意力:Cross-Attention

2018 年 6 月 2 日 我爱读PAMI

在问答系统中,为了匹配一个问题句子,和一个候选的答案,我们可以注意一个句子中的不同单词,也可以注意这个答案的不同属性。到底该注意哪一个呢?中科院的赵军老师说:可以乱来的,让不同的单词和答案互相交叉着注意。







An end-to-end model for question answering overknowledge base with cross-attention combining global knowledge

Hao, Yanchao, Yuanzhe Zhang, Kang Liu, Shizhu He, ZhanyiLiu, Hua Wu, and Jun Zhao

In Proceedings of the 55th Annual Meeting of theAssociation for Computational Linguistics (Volume 1: Long Papers), vol. 1, pp.221-231. 2017


登录查看更多
172

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
132+阅读 · 2020年2月13日
论文浅尝 | XQA:一个跨语言开放域问答数据集
开放知识图谱
25+阅读 · 2019年9月11日
阅读理解之(bidaf)双向注意力流网络
AINLP
9+阅读 · 2019年6月22日
论文浅尝 | 基于知识库的自然语言理解 04#
开放知识图谱
14+阅读 · 2019年3月14日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
从2017年顶会论文看Attention Model
黑龙江大学自然语言处理实验室
5+阅读 · 2017年11月1日
已删除
将门创投
12+阅读 · 2017年10月13日
学界 | 百度提出问答模型GNR:检索速度提高25倍
机器之心
5+阅读 · 2017年9月27日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
8+阅读 · 2018年5月24日
Arxiv
3+阅读 · 2018年3月29日
VIP会员
相关VIP内容
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
注意力图神经网络的多标签文本分类
专知会员服务
111+阅读 · 2020年3月28日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
132+阅读 · 2020年2月13日
相关资讯
论文浅尝 | XQA:一个跨语言开放域问答数据集
开放知识图谱
25+阅读 · 2019年9月11日
阅读理解之(bidaf)双向注意力流网络
AINLP
9+阅读 · 2019年6月22日
论文浅尝 | 基于知识库的自然语言理解 04#
开放知识图谱
14+阅读 · 2019年3月14日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
从2017年顶会论文看Attention Model
黑龙江大学自然语言处理实验室
5+阅读 · 2017年11月1日
已删除
将门创投
12+阅读 · 2017年10月13日
学界 | 百度提出问答模型GNR:检索速度提高25倍
机器之心
5+阅读 · 2017年9月27日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
相关论文
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
15+阅读 · 2019年4月4日
Arxiv
8+阅读 · 2018年5月24日
Arxiv
3+阅读 · 2018年3月29日
Top
微信扫码咨询专知VIP会员