Knowledge graph (KG) embedding encodes the entities and relations from a KG into low-dimensional vector spaces to support various applications such as KG completion, question answering, and recommender systems. In real world, knowledge graphs (KGs) are dynamic and evolve over time with addition or deletion of triples. However, most existing models focus on embedding static KGs while neglecting dynamics. To adapt to the changes in a KG, these models need to be re-trained on the whole KG with a high time cost. In this paper, to tackle the aforementioned problem, we propose a new context-aware Dynamic Knowledge Graph Embedding (DKGE) method which supports the embedding learning in an online fashion. DKGE introduces two different representations (i.e., knowledge embedding and contextual element embedding) for each entity and each relation, in the joint modeling of entities and relations as well as their contexts, by employing two attentive graph convolutional networks, a gate strategy, and translation operations. This effectively helps limit the impacts of a KG update in certain regions, not in the entire graph, so that DKGE can rapidly acquire the updated KG embedding by a proposed online learning algorithm. Furthermore, DKGE can also learn KG embedding from scratch. Experiments on the tasks of link prediction and question answering in a dynamic environment demonstrate the effectiveness and efficiency of DKGE.


翻译:知识图形( KG) 嵌入将实体和关系从 KG 嵌入到低维矢量空间的知识图形( KG), 以支持 KG 完成、 问答、 推荐系统等各种应用。 在现实世界中, 知识图形( KG) 是动态的, 并随着时间的增加或删除而演变。 然而, 大多数现有模型侧重于嵌入静态的 KG, 同时忽略动态。 为了适应KG 的变化, 这些模型需要在整个 KG 上重新接受培训, 花费很高的时间。 在本文中, 为了解决上述问题, 我们提出了一种新的有环境觉悟的动态知识图形嵌入式( DKGE) 方法, 支持以在线方式嵌入学习。 在实体和关系联合建模时, 这些模型侧重于嵌入静态的 KGGG 和背景, 需要使用两个细微的图形革命网络、 门端策略和翻译操作。 这有效地帮助限制 KGG 更新了某些区域的K 更新影响, 而不是在整个图表中嵌入 。 因此, DGEGE 快速地学习了 K 快速的K 快速的定位, 学习了 K 。

14
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
132+阅读 · 2020年2月13日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
169+阅读 · 2020年2月13日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
100+阅读 · 2020年3月4日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
9+阅读 · 2019年11月6日
Arxiv
12+阅读 · 2019年2月26日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关资讯
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
相关论文
Arxiv
100+阅读 · 2020年3月4日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
9+阅读 · 2019年11月6日
Arxiv
12+阅读 · 2019年2月26日
Arxiv
7+阅读 · 2018年3月21日
Top
微信扫码咨询专知VIP会员