We present the first comprehensive study on automatic knowledge base construction for two prevalent commonsense knowledge graphs: ATOMIC (Sap et al., 2019) and ConceptNet (Speer et al., 2017). Contrary to many conventional KBs that store knowledge with canonical templates, commonsense KBs only store loosely structured open-text descriptions of knowledge. We posit that an important step toward automatic commonsense completion is the development of generative models of commonsense knowledge, and propose COMmonsEnse Transformers (COMET) that learn to generate rich and diverse commonsense descriptions in natural language. Despite the challenges of commonsense modeling, our investigation reveals promising results when implicit knowledge from deep pre-trained language models is transferred to generate explicit knowledge in commonsense knowledge graphs. Empirical results demonstrate that COMET is able to generate novel knowledge that humans rate as high quality, with up to 77.5% (ATOMIC) and 91.7% (ConceptNet) precision at top 1, which approaches human performance for these resources. Our findings suggest that using generative commonsense models for automatic commonsense KB completion could soon be a plausible alternative to extractive methods.


翻译:我们首次全面研究了两种普通常识知识图:ATOMIC(Sap等人,2019年)和概念网(Speer等人,2017年)。与许多传统的KBs用康星模板储存知识相反,普通知识KBs只储存了结构松散的开放文本知识描述。我们认为,自动普及知识完成的一个重要步骤是开发常识知识的基因化模型,并提议COMmonsEnsse 变异器(COMET)学会以自然语言生成丰富和多样的公识描述。尽管常识模型存在挑战,但我们的调查显示,在深层预先培训的语言模型的隐性知识被转让以生成普通知识图中的明确知识时,我们发现有希望的结果。 经验性结果显示,知识与知识传播技术中心能够产生新的知识,即人类的高质量,高达77.5%(ATOMIC)和91.7%(CeptionNet)的精准度,从而接近人类在这些资源上的表现。我们的调查结果表明,使用精准的常识化常识模型模型来自动采性采掘KB方法可以很快完成。

0
下载
关闭预览

相关内容

ConceptNet是免费提供的语义网络,旨在帮助计算机理解人们使用的单词的含义。
【IJCAI2020】TransOMCS: 从语言图谱到常识图谱
专知会员服务
34+阅读 · 2020年5月4日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
167+阅读 · 2020年2月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
动态知识图谱补全论文合集
专知
60+阅读 · 2019年4月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
99+阅读 · 2020年3月4日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
动态知识图谱补全论文合集
专知
60+阅读 · 2019年4月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员