【干货】近年火爆的Attention模型,它的套路这里都有!

2017 年 12 月 28 日 机器学习研究会

【文末有彩蛋!】

推荐阅读时间:8min~13min

主要内容:简介明了的讲解一些Attention Model的套路和理论

---------------------------------------------

作者:YBB

单位:清华大学研究生

1
Attention 的本质


attention其实就是一个加权平均。

attention处理的问题,往往面临的是这样一个场景:

2
Attention的设计


如何计算得到alpha(i),一般分为两个步骤:

那么如何设计step 1中的打分函数 f呢,在论文”Dynamic Attention Deep Model for Article Recommendation by Learning Human Editors’Demonstration”中的Attention Mechanism章节给了较为全面的概括。大体分为三类:

其中General Attention并不常见,(可能笔者读的paper不够多,目前还没有遇到过)因此在这里不做介绍。接下来详细介绍下Location-based Attention和Concatenation-based Attention的设计。


2.1 Location-based Attention


具体我们来举几个例子,可能具体实现上,有略微区别,不过都大同小异:

Example 1:A Context-aware Attention Network for Interactive Interactive Question Answering_KDD2017

Example 2:Dynamic Attention Deep Model for Article Recommendation by Learning Human Editors’ Demonstration_KDD2017

2.2 Concatenation-based Attention


转自:机器学习算法与自然语言处理


完整内容请点击“阅读原文”

登录查看更多
7

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
211+阅读 · 2020年6月5日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
【新书】贝叶斯网络进展与新应用,附全书下载
专知会员服务
118+阅读 · 2019年12月9日
注意力机制介绍,Attention Mechanism
专知会员服务
165+阅读 · 2019年10月13日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
22+阅读 · 2018年10月9日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
干货|当深度学习遇见自动文本摘要,seq2seq+attention
机器学习算法与Python学习
10+阅读 · 2018年5月28日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
基于attention的seq2seq机器翻译实践详解
黑龙江大学自然语言处理实验室
11+阅读 · 2018年3月14日
TensorFlow seq2seq中的Attention机制(续)
深度学习每日摘要
15+阅读 · 2017年11月16日
深度学习中的注意力机制
人工智能头条
16+阅读 · 2017年11月2日
已删除
将门创投
12+阅读 · 2017年10月13日
从2017年顶会论文看Attention Model
哈工大SCIR
9+阅读 · 2017年10月12日
大神们最近都在读这些论文 | 本周值得读 #44
PaperWeekly
7+阅读 · 2017年8月12日
Area Attention
Arxiv
5+阅读 · 2019年2月5日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
5+阅读 · 2018年2月26日
VIP会员
相关VIP内容
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
211+阅读 · 2020年6月5日
NLP基础任务:文本分类近年发展汇总,68页超详细解析
专知会员服务
57+阅读 · 2020年1月3日
【新书】贝叶斯网络进展与新应用,附全书下载
专知会员服务
118+阅读 · 2019年12月9日
注意力机制介绍,Attention Mechanism
专知会员服务
165+阅读 · 2019年10月13日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
22+阅读 · 2018年10月9日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
干货|当深度学习遇见自动文本摘要,seq2seq+attention
机器学习算法与Python学习
10+阅读 · 2018年5月28日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
基于attention的seq2seq机器翻译实践详解
黑龙江大学自然语言处理实验室
11+阅读 · 2018年3月14日
TensorFlow seq2seq中的Attention机制(续)
深度学习每日摘要
15+阅读 · 2017年11月16日
深度学习中的注意力机制
人工智能头条
16+阅读 · 2017年11月2日
已删除
将门创投
12+阅读 · 2017年10月13日
从2017年顶会论文看Attention Model
哈工大SCIR
9+阅读 · 2017年10月12日
大神们最近都在读这些论文 | 本周值得读 #44
PaperWeekly
7+阅读 · 2017年8月12日
相关论文
Area Attention
Arxiv
5+阅读 · 2019年2月5日
Arxiv
4+阅读 · 2018年10月31日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
5+阅读 · 2018年2月26日
Top
微信扫码咨询专知VIP会员