Modeling dynamically-evolving, multi-relational graph data has received a surge of interests with the rapid growth of heterogeneous event data. However, predicting future events on such data requires global structure inference over time and the ability to integrate temporal and structural information, which are not yet well understood. We present Recurrent Event Network (RE-Net), a novel autoregressive architecture for modeling temporal sequences of multi-relational graphs (e.g., temporal knowledge graph), which can perform sequential, global structure inference over future time stamps to predict new events. RE-Net employs a recurrent event encoder to model the temporally conditioned joint probability distribution for the event sequences, and equips the event encoder with a neighborhood aggregator for modeling the concurrent events within a time window associated with each entity. We apply teacher forcing for model training over historical data, and infer graph sequences over future time stamps by sampling from the learned joint distribution in a sequential manner. We evaluate the proposed method via temporal link prediction on five public datasets. Extensive experiments demonstrate the strength of RE-Net, especially on multi-step inference over future time stamps. Code and data can be found at https://github.com/INK-USC/RE-Net .


翻译:建模性多关系图表数据随着各种事件数据的迅速增长而引起了人们的极大兴趣。然而,预测这些数据的未来事件需要随着时间推移而进行全球结构推导,并具备整合时间和结构信息的能力,而这些还不能很好地理解。我们介绍了经常事件网络(RE-Net),这是建模多关系图(例如时间知识图)时间序列模型的新型自动递增结构架构,可按顺序对未来时间邮票进行全球结构推论,以预测新的事件。RE-Net使用一个经常性事件编码器,以模拟事件序列中按时间条件联合概率的分布,并为事件编码器配备一个周边聚合器,用于在与每个实体相关的时间窗口中模拟同时发生的事件。我们利用教师对历史数据进行模型培训,并通过从所学的联合分布中以顺序抽样方式对未来时间图序列进行推导。我们通过在五个公共数据集上的时间链接预测来评估拟议的方法。在RE-Net上进行广泛的实验,特别在多-K-Crestebs 上,可以显示RE-C-stepregs 和多-reg-reg-regal 。

7
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2020年3月19日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
28+阅读 · 2018年4月6日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2020年3月19日
相关论文
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年8月28日
Arxiv
28+阅读 · 2018年4月6日
Arxiv
15+阅读 · 2018年4月5日
Top
微信扫码咨询专知VIP会员