必读论文 | 百篇最值得一读的“认知图谱”经典论文

2020 年 5 月 14 日 学术头条

当你站在人脸识别门禁闸口,扫脸,绿灯亮通过,就可以任意进出宿舍楼、图书馆、教学区等各种校内场所,你也许会想:机器认识我吗?


实际并非如此。当前的 AI 识别能做的只是比对,它缺少信息进入大脑之后的加工、理解、思考步骤,因此仅仅停留在感知阶段,而并非“认知”。而这种以感知智能技术为主的人工智能,无论是在智能理解能力还是安全性方面,与人类智能都相去甚远。


想要让人工智能有类似大脑的活动,走到认知阶段,需要让它掌握知识、进行推理。机器必须要掌握大量的知识,特别是常识知识才能实现真正类人的智能。所以,“理解”与“解释”是 AI 需要攻克的下一个挑战,而认识图谱为“可解释的 AI”提供了全新的视角和机遇。


“Knowing yourself is the beginning of all wisdom.”亚里士多德的这句话,正是认知图谱使命最好的概括。


那么,想深入学习和研究认知图谱,研读该领域的经典论文,对于研究者和从业者都必不可缺。经过我们对人工智能领域国际顶会/期刊中“认知图谱”相关关键词论文的计算,以及热心读者徐菁博士的整理,AMiner 推出了 100 篇认知图谱经典必读论文。这些论文可以说基本都是经典中的经典,他们多是领域大佬+顶级会议的组合,读完它们,相信你对认知图谱的认认识肯定会有质的飞越。


此外,AMiner 还为你特别准备了“一键综述”服务,一键批量生成“论文综述”,另有“论文精读”加持,如此周到细致,还不赶紧来体验下。


在使用体验过程若有任何意见,请在文末留言或邮件至report@aminer.cn


该 List 除了整合了认知图谱领域的 100 篇经典论文,小脉还对这些论文进行了简要分析。

先来看看它们都出自哪些会议?根据对论文出处的分析,它们大多选自 NeurIPS、ICLR、ACL、EMNLP、IJCAI、AAAI 等机器学习与自然语言处理领域的国际顶会。

根据对这些经典论文发表年份的统计,近十年这些论文主要发表在 2016-2019 这四年间,占比达 60%;在 2014-2016 年间也有不少经典论文发表。

再来看看入选作者,有一位大佬有 4 篇论文入选,他正是 DeepMind 的研究科学家 Oriol Vinyals,在今年被评为 AI 2000 机器学习全球最具影响力学者之一。还有三位作者有 3 篇论文入选,他们分别是微软研究院合伙人研究经理高剑峰,佐治亚理工大学机器学习中心的教授宋乐,Facebook 研究科学家、纽约大学客座教授 Jason Weston,他们都是机器学习领域的大牛。另有 21 位作者都有 2 篇入选。

我们按照这 100 篇经典论文的被引量,挑选了其中的 10 篇作简单评述,供大家学习参考。

我们近期还会推出《认知图谱研究报告》,欢迎关注。

Neural Machine Translation by Jointly Learning to Align and Translate(ICLR 2015)
作者:Dzmitry Bahdanau,Kyunghyun Cho,Yoshua Bengio
单位:Jacobs University Bremen,Université de Montréal
引用量:9818
推荐理由:这篇论文的一作正是 Yoshua Bengio 的博士生 Dzmitry Bahdanau。文中首次提出在神经网络机器翻译(NMT) 中使用 Attention 的机制,可以使模型自动确定源句子中和目标词语最相关的部分,相比于基本 encoder-decoder 方法提高了翻译效果。该文提出的方法优化了神经机器翻译模型,其效果的提升对于长句子的翻译尤其明显。

Sequence to Sequence Learning with Neural Networks(NeurIPS2014)
作者:Ilya Sutskever,Oriol Vinyals,Quoc V. Le
单位:Google
引用量:8846
推荐理由:该文是谷歌发表于 2014 年 NeurIPS 的一篇神作,现已被广泛使用的 Sequence to Sequence 模型论文。文中基于多层的长短期记忆网络(LSTM),提出了一种对序列结构做最小假设的一般端到端序列学习方法,在长短句翻译方面均表现优异。

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(NAACL-HLT 2019)
作者:Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova
单位:Google
引用量:2952
推荐理由:该论文提出的 BERT 模型被各地学者、媒体美誉为 NLP 新一代大杀器。文中提出了一种语言表达模型 BERT,即 Transformer 的双向编码表示,它通过考虑所有层整个上下文对为标注过的文本进行深度双向表达的预训练。实验结果证明,使用预训练过的 BERT 模型,仅仅在后面再包一层输出层,并对其进行微调训练,就可以取得不错的效果。BERT 在机器阅读理解顶级水平测试 SQuAD1.1中表现出惊人成绩:全部两个衡量指标上全面超越人类,并且还在 11 种不同 NLP 测试中创出最佳成绩。

Ontology Learning for the Semantic Web(IEEE 2001)
作者:Alexander D. Maedche,Steffen Staab
单位:University of Karlsruhe
引用量:2932
推荐理由:本文提出了一种利用半自动本体构建工具,扩展典型本体工程环境的本体学习框架。该框架包括本体的导入、提取、裁剪、细化和评价。实验结果表明,利用语义网和本体,该方法能够实现全面的、可移植的机器理解。

Effective Approaches to Attention-based Neural Machine Translation(EMNLP 2015)
作者:Thang Luong,Hieu Pham,Christopher D. Manning
单位:Stanford University
引用量:2866
推荐理由:该文是 NLP 大牛 Christopher D. Manning 与他的博士生 Thang Luong 等人的佳作。也是继 Bahdanau 等人提出 Attention 用于 NLP 的后续工作,作者提出了相对于之前工作的两种新的但却有效的注意力机制,全局注意力(global)和局部注意力(local)。其中,局部注意力机制的运用使得神经机器翻译模型远胜于非注意力机制模型(5个BLEU点)。在融合了各个注意力机制模型之后,它在英文翻译到德文的多项任务中取得了 SOTA 的结果。

Attention Is All You Need(NeurIPS2017)
作者:Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Lukasz Kaiser,Illia Polosukhin
单位:Google,University of Toronto
引用量:2706
推荐理由:本篇文章的创新点在于抛弃了之前传统的 encoder-decoder 模型必须结合 CNN 或者 RNN 的固有模式,只用 Attention。文章提出一种基于注意机制的transformer模型,目的在于减少计算量和提高并行效率的同时不损害最终的实验结果。结果表明,它能更好地完成机器翻译任务,在质量上更优同时可并行化,所需的训练时间明显更少。

Translating Embeddings for Modeling Multi-relational Data(NeurIPS2013)
作者:Antoine Bordes,Nicolas Usunier,Alberto García-Durán,Jason Weston,Oksana Yakhnenko
单位:Universite de Technologie de Compi` egne (UTC),Google
引用量:1660
推荐理由:本文提出了 TransE,一种通过将关系解释为在实体的低维嵌入上操作的转换来建模关系的方法。尽管它很简单,但是这种假设被证明是强大的,因为大量的实验表明在两个知识库连接预测方面,TransE 明显优于目前最新的方法。它解决了多关系数据在低维向量空间中的嵌入问题,且模型易于训练,包含较少的参数,可以扩展到非常大的数据库。

Ontology Based Context Modeling and Reasoning using OWL(PerCom 2004)
作者:Xiaohang Wang,Daqing Zhang,Tao Gu,Hung Keng Pung
单位:National University of Singapore
引用量:1460
推荐理由:该文使用了 OWL 的基于本体的上下文建模和推理方法,在普适计算环境中建模上下文,并支持基于逻辑的上下文推理。

A Neural Attention Model for Abstractive Sentence Summarization (EMNLP 2015)
作者:Alexander M. Rush,Sumit Chopra,Jason Weston
单位:Facebook
引用量:1229
推荐理由:该文是神经网络用于生成式模型的开篇之作,作者提出了利用 Gigaword 构建大量平行句对的方法,使得利用神经网络训练成为可能,之后多篇工作都使用了该方法构建训练数据。实验结果表明,该方法使得文本文摘的性能提升,容易进行端到端训练,并可扩展到大量的训练数据。

Reasoning With Neural Tensor Networks for Knowledge Base Completion(NeurIPS2013)
作者:Richard Socher,Danqi Chen,Christopher D. Manning,Andrew Y. Ng
单位:Stanford University
引用量:1043
推荐理由:这篇论文是是吴恩达与曼宁团队的佳作。这篇论文主要创新点表现在,相比前人在知识库里使用实体去预测关系,作者引入了一个损失函数为双线性的三层神经网络(NTN)模型,并且对于实体向量初始化的处理采用非监督模型训练得到的词向量的平均值,大大提高了系统的准确率。

看完了以上佳作,更多经典论文请进入“认知图谱”专题页查看。



点击阅读原文,查看更多精彩!

登录查看更多
3

相关内容

人工智能已经在“听、说、看”等感知智能领域达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。认知图谱将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合跨领域知识图谱、因果推理、持续学习等技术,建立稳定获取和表达知识的有效机制,让知识能够被机器理解和运用,实现从感知智能到认知智能的关键突破。认知图谱(Cognitive Graph)旨在结合认知心理学、脑科学和人类知识,研发知识图谱、认知推理、逻辑表达的新一代认知引擎,实现人工智能从感知智能向认知智能的演进。认知图谱是计算机科学的一个研究分支,它企图了解智能的实质,并实现感知智能系统到认知智能系统的重大技术突破。该领域的研究包括认知图谱表示、认知图谱构建、认知图谱推理、认知图谱应用等。
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
知识图谱本体结构构建论文合集
专知会员服务
102+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
图神经网络(GNN)必读论文及最新进展跟踪
深度学习与NLP
27+阅读 · 2019年6月7日
2018 年最棒的三篇 GAN 论文
AI科技评论
4+阅读 · 2019年1月14日
清华大学孙茂松组:图神经网络必读论文列表
机器之心
45+阅读 · 2018年12月27日
TensorFlow 相关论文与研究汇总
云栖社区
4+阅读 · 2018年1月7日
Arxiv
99+阅读 · 2020年3月4日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
11+阅读 · 2018年9月28日
Arxiv
10+阅读 · 2017年11月22日
VIP会员
相关VIP内容
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
知识图谱本体结构构建论文合集
专知会员服务
102+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
图神经网络(GNN)必读论文及最新进展跟踪
深度学习与NLP
27+阅读 · 2019年6月7日
2018 年最棒的三篇 GAN 论文
AI科技评论
4+阅读 · 2019年1月14日
清华大学孙茂松组:图神经网络必读论文列表
机器之心
45+阅读 · 2018年12月27日
TensorFlow 相关论文与研究汇总
云栖社区
4+阅读 · 2018年1月7日
Top
微信扫码咨询专知VIP会员