生成式常识推理是文本生成的一个关键瓶颈,它旨在使机器能够根据一组概念生成具有推理能力的句子。即使是最先进的预训练语言生成模型也难以完成这一任务,而且常常产生不合逻辑和异常的句子。其中一个原因是,他们很少考虑将知识图谱整合进来,因为知识图谱可以在常识概念之间提供丰富的关系信息。为了提高常识性推理生成文本的能力,我们提出了一种新的知识图谱增强的预训练语言生成模型KG-BART,该模型通过知识图谱包含了复杂的概念关系,并生成了更符合逻辑和自然的句子作为输出。此外,KG-BART可以利用图上的注意力来聚集丰富的概念语义,从而增强对看不见的概念集的模型泛化。在基准commonen数据集上进行的实验验证了本文方法的有效性,并与几个强的预训练语言生成模型进行了比较,特别是在BLEU - 3,4方面,KG-BART的性能比BART高出5.80、4.60。此外,我们还表明,通过我们的模型生成的上下文可以作为背景场景,从而有利于下游的常识性QA任务。

https://www.zhuanzhi.ai/paper/5478cc149a0d6a523665d68c6d3c170a

成为VIP会员查看完整内容
71

相关内容

【AAAI2021】预训练用户表示提升推荐
专知会员服务
42+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】对话推理:上下文阅读理解提升回复生成
专知会员服务
43+阅读 · 2021年1月23日
【AAAI2021】记忆门控循环网络
专知会员服务
47+阅读 · 2020年12月28日
专知会员服务
103+阅读 · 2020年12月22日
专知会员服务
107+阅读 · 2020年12月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
80+阅读 · 2020年12月18日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
72+阅读 · 2020年9月25日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
论文浅尝 | 基于属性嵌入的知识图谱间实体对齐方法
开放知识图谱
30+阅读 · 2019年3月26日
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
12+阅读 · 2019年2月26日
VIP会员
相关VIP内容
【AAAI2021】预训练用户表示提升推荐
专知会员服务
42+阅读 · 2021年2月8日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
48+阅读 · 2021年2月7日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】对话推理:上下文阅读理解提升回复生成
专知会员服务
43+阅读 · 2021年1月23日
【AAAI2021】记忆门控循环网络
专知会员服务
47+阅读 · 2020年12月28日
专知会员服务
103+阅读 · 2020年12月22日
专知会员服务
107+阅读 · 2020年12月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
80+阅读 · 2020年12月18日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
72+阅读 · 2020年9月25日
微信扫码咨询专知VIP会员