合成注意力推理神经网络-Christopher Manning-ICLR2018

2018 年 8 月 19 日 深度学习与NLP

     DL自2012年发展至今已经有5年多之久,在语音、图像和NLP领域都有丰硕的成果,掀起了人工智能技术的浪潮。众所周知,机器学习(ML),乃至深度学习(DL)具有非常强的学习表征能力,但却不能像人一样进行推理(Reasoning)。

    如何帮助ML和DL现在是学术界另一个活跃的研究主题。今天就带大家领略一下学术界的大咖们,在这个领域都在做些什么事情。今天,分享一个Stanford NLP负责人,Christopher D Manning在ICLR-2018年上的一个分享视频-合成注意力推理神经网络,借助Compositional Attention帮助深度学习模型进行推理。


觉得还不错,记得点击下方小广告哦!!

登录查看更多
2

相关内容

SAIL 新任负责人,Christopher Manning于1989年在澳大利亚国立大学取得三个学士学位(数学、计算机和语言学),并于 1994 年获得斯坦福大学语言学博士学位。 他曾先后在卡内基梅隆大学、悉尼大学等任教,1999 年回到母校斯坦福,就职于计算机科学和语言学系,是斯坦福自然语言处理组(Stanford NLP Group)的创始成员及负责人。重返斯坦福之后,他一待就是 19 年。 Manning 的研究目标是以智能的方式实现人类语言的处理、理解及生成,研究领域包括树形 RNN 、情感分析、基于神经网络的依存句法分析、神经机器翻译和深度语言理解等,是一位 NLP 领域的深度学习开拓者。他是国际计算机学会 (ACM)、国际人工智协会(AAAI)、国际计算语言学会(ACL)等国际权威学术组织的 Fellow,曾获 ACL、EMNLP、COLING、CHI 等国际顶会最佳论文奖,著有《统计自然语言处理基础》、《信息检索导论》等自然语言处理著名教材。个人主页:https://nlp.stanford.edu/manning/
注意力机制模型最新综述
专知会员服务
260+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
166+阅读 · 2019年10月13日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
生成对抗网络也需要注意力机制
全球人工智能
5+阅读 · 2019年3月15日
2019最新-UC Berkeley-《深度学习入门课程》分享
深度学习与NLP
13+阅读 · 2019年3月1日
斯坦福AI实验室换帅!Christopher Manning接替李飞飞
全球人工智能
7+阅读 · 2018年11月20日
可视化循环神经网络的注意力机制
论智
22+阅读 · 2018年9月23日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
Bivariate Beta LSTM
Arxiv
5+阅读 · 2019年10月7日
Arxiv
19+阅读 · 2018年6月27日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
相关资讯
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
生成对抗网络也需要注意力机制
全球人工智能
5+阅读 · 2019年3月15日
2019最新-UC Berkeley-《深度学习入门课程》分享
深度学习与NLP
13+阅读 · 2019年3月1日
斯坦福AI实验室换帅!Christopher Manning接替李飞飞
全球人工智能
7+阅读 · 2018年11月20日
可视化循环神经网络的注意力机制
论智
22+阅读 · 2018年9月23日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
Top
微信扫码咨询专知VIP会员