Knowledge graph (KG) completion aims to fill the missing facts in a KG, where a fact is represented as a triple in the form of $(subject, relation, object)$. Current KG completion models compel two-thirds of a triple provided (e.g., $subject$ and $relation$) to predict the remaining one. In this paper, we propose a new model, which uses a KG-specific multi-layer recurrent neural network (RNN) to model triples in a KG as sequences. It outperformed several state-of-the-art KG completion models on the conventional entity prediction task for many evaluation metrics, based on two benchmark datasets and a more difficult dataset. Furthermore, our model is enabled by the sequential characteristic and thus capable of predicting the whole triples only given one entity. Our experiments demonstrated that our model achieved promising performance on this new triple prediction task.


翻译:完成知识图( KG) 的目的是填充 KG 中缺失的事实, 事实以美元( 主题、 关系、 对象) 的形式表现为三重。 当前 KG 完成模型迫使提供的三重数据中的三分之二( 主题、 关系、 对象) 预测剩余数据 。 在本文中, 我们提出了一个新模型, 将KG 特定多层经常性神经网络作为KG 序列的三重模型。 它在两个基准数据集和一个更困难的数据集的基础上, 完成了许多评估指标常规实体预测任务上的一些最先进的 KG 完成模型。 此外, 我们的模型是由连续特征所促成的, 因而只能对一个实体预测整个三重数据。 我们的实验表明, 我们的模式在新的三重预测任务上取得了有希望的业绩。

3
下载
关闭预览

相关内容

17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
167+阅读 · 2020年2月13日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
「知识表示学习」专题论文推荐 | 每周论文清单
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
15+阅读 · 2018年4月5日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员