尽管生成式预训练语言模型在一系列文本生成任务上取得了成功,但在生成过程中需要对基本常识进行推理的情况下,它们仍然会受到影响。现有的将常识知识整合到生成的预训练语言模型中的方法,只是简单地通过对单个知识三元组的后训练来迁移关系知识,而忽略了知识图谱中丰富的连接。我们认为,利用知识图谱的结构和语义信息有助于常识感知文本的生成。在本文中,我们提出用多跳推理流(GRF)进行生成,使预训练的模型能够在从外部常识知识图谱中提取的多关系路径上进行动态多跳推理。我们的经验表明,我们的模型在三个文本生成任务上优于现有的基线,这些任务需要推理而非常识知识。通过模型推导出的推理路径,证明了动态多跳推理模块的有效性,为生成过程提供了理论依据。

https://arxiv.org/abs/2009.11692

成为VIP会员查看完整内容
72

相关内容

近期必读的六篇 EMNLP 2020【知识图谱】相关论文和代码
专知会员服务
41+阅读 · 2020年11月10日
【NeurIPS 2020 - 斯坦福】知识图谱中多跳逻辑推理的Beta嵌入
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
35+阅读 · 2020年8月8日
专知会员服务
39+阅读 · 2020年6月19日
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
图神经网络表达能力的研究综述,41页pdf
专知会员服务
168+阅读 · 2020年3月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
论文浅尝 | 利用问题生成提升知识图谱问答
开放知识图谱
20+阅读 · 2019年11月5日
论文浅尝 | 基于图注意力的常识对话生成
开放知识图谱
8+阅读 · 2019年2月5日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
3+阅读 · 2018年3月28日
Arxiv
4+阅读 · 2018年1月29日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员