【NeurIPS2019】图变换网络:Graph Transformer Network

2019 年 11 月 18 日 专知
导读

大多数GNN的一个限制是它们假设在固定和同质图的情况下进行GNNs操作。当在不确定的图或由各种类型的节点和边组成的异构(heterogeneous)图上学习表示时,这些限制尤其成问题。本文提出了能够生成新的图结构的图变换网络(Graph Transformer Networks, GTNs),该方法将异构图转化为由任意边类型和任意长度的元路径定义的多个新图,同时通过对学习到的元路径图进行卷积学习节点表示。GTN打破了手工构建元路径的现状,构建了自动化的图生成及表示学习模式。


编译 | Xiaowen

https://arxiv.org/pdf/1911.06455.pdf


图神经网络(GNNs)在图表示学习中得到了广泛的应用,实现了节点分类和连接预测等任务的最佳性能。然而,大多数现有的GNNs都被设计为在固定(fix)和同质(homogeneous)的图上学习节点表示。当在不确定的图或由各种类型的节点和边组成的异构(heterogeneous)图上学习表示时,这些限制尤其成问题。本文提出了能够生成新的图结构的图变换网络(Graph Transformer Networks, GTNs),它涉及在原始图上识别未连接节点之间的有用连接,同时以端到端方式学习新图上的有效节点表示。图变换层是GTNs的核心层,学习边类型和复合关系的软选择,以产生有用的多跳连接,即所谓的元路径。我们的实验表明,GTNs基于数据和任务,在没有领域知识(domain knowledge)的情况下学习新的图结构,并通过在新图上的卷积产生强大的节点表示。在没有域特定的图预处理的情况下,GTNs在所有三个benchmark节点分类任务中实现了对比需要领域知识的预定义的元路径的现有技术方法的最佳性能。

{

简介

Introduction

}

近年来,图神经网络被广泛应用于图的分类,连接预测和节点分类中。GNNs学到的表示法已被证明在各种图数据集中取得了最先进的表现,例如社交网络,引文网络,大脑的功能结构,推荐系统。GNNs利用底层图结构直接对图进行卷积,将节点特征传递给邻域,或使用给定图的傅里叶基(即Laplacian算子的特征函数)在谱域中进行卷积。

然而,大多数GNN的一个限制是它们假设在固定和同质图的情况下进行GNNs操作。由于上面讨论的图卷积是由固定的图结构来确定的,所以存在丢失/谬误连接的噪声图导致与图上的错误邻居的无效卷积。此外,在一些应用中,构造用于操作GNN的图不是微不足道的。例如,引用网络具有多种类型的节点(例作者、论文、会议)和由它们之间的关系(如作者-论文、论文-会议)定义的边,它被称为异构图。普通的方法是忽略节点/边类型,并将其视为同质图(具有一种类型的节点和边的标准图)。显然,这不是最佳的方案,因为模型不能利用类型信息。最近的方法采用的补救措施是手动设计与异质边缘连接的路径,并将异构图转化为由meta-path定义的同构图。然后,传统的GNN可以对变换的同构图进行运算。 这是一种两阶段的方法,每个问题都需要手工构建元路径。这些元路径的选择对下游分析的准确性有很大的影响。

在此,我们开发了图变换网络(GTN),该网络学习将异构输入图转换为每个任务有用的元路径图,并以端到端方式学习图上的节点表示。GTNs可以被看作是空间变换网络的图模拟,它明确地学习输入图像或特征的空间变换。将异构图转换为元路径定义的新图结构的主要挑战是元路径可能具有任意长度和边类型。例如,引用网络中的作者分类可能受益于元路径,即作者-论文-作者(APA)或作者-论文-会议-作者(APCPA)。此外,引用网络是有向图,相对来说只有较少的图神经网络可以操作。为了应对这些挑战,我们需要一个模型,该模型基于与异构图中软选择的边类型相连接的复合关系生成新的图结构,并通过关于给定问题的学习图形结构上的卷积来学习节点表示。

我们的贡献如下:(1)提出了一种新的图变换网络,以学习一种新的图结构,该结构包括识别有用的元路径和多跳连接来学习图上的有效节点表示。(2)图的生成是可解释的,模型能够为预测提供有效元路径的洞察力。(3)我们证明了图变换网络学习的节点表示的有效性,从而获得了最佳的性能,而现有的方法在异构图的所有三种基准节点分类中都使用了领域知识。

{

方法

Method

}


我们的图变换网络的目标是生成新的图结构,同时在学习到的图上学习节点表示。与大多数假设图是给定的CNNs不同的是,GTNS使用多个候选邻接矩阵寻找新的图结构,以执行更有效的图卷积,并学习更强大的节点表示。学习新的图结构涉及识别有用的元路径,它们是与异质边和多跳连接的路径。




以前的工作需要手动定义元路径,并在元路径图上执行图神经网络。相反,我们的图转换网络(GTNs)学习给定数据和任务的元路径,并在所学习的元路径图上操作图卷积。这使我们有机会找到更有用的元路径,并使用多个元路径图生成几乎不同的图卷积。图1中图转换(GT)层中的新的元路径图生成有两个部分。首先,GT层从候选邻接矩阵A中柔和地选择两个图结构Q1和Q2。第二,它通过两个关系的组成来学习新的图结构(即两个邻接矩阵的矩阵乘法,Q1Q2)。


为了同时考虑多种类型的元路径,图1中1×1卷积的输出通道设置为C。然后,GT层产生一组元路径,中间邻接矩阵Q1和Q2成为邻接张量Q1和Q2 (n×n×c),如图2所示。通过多个不同的图结构学习不同的节点表示是有益的。在L个GT层堆栈之后,将GCN应用于元路径张量A(n×n×c)的每个通道,并将多个节点表示连接起来。

{

实验

Experiments

}


在这一节中,我们评估了我们的方法相对于各种最新的节点分类模型的优势。我们进行实验和分析,回答以下研究问题:Q1:GTN生成的新图结构对学习节点表示是否有效?Q2:GTN能否根据数据集自适应地产生可变长度的元路径?Q3:如何从GTNs生成的邻接矩阵来解释每个元路径的重要性?


从新的图结构中学习的表示的有效性。表2显示了GTN和其他节点分类基线的性能。通过对实验结果的分析,我们将回答问题Q1和Q2。我们注意到,我们的GTN针对所有网络嵌入方法和图神经网络方法,实现了所有数据集的最高性能。



通过GTNs与预定义的元路径和top-ranked元路径进行比较。我们的模型找到了重要的元路径,这些元路径与目标节点之间的预定义的元路径一致(一种具有节点分类标签的节点的类型)。此外,GTNs还发现了所有类型的节点之间的新的相关元路径。



如表3所示,在有类标签可预测的目标节点之间,按域知识预定义的元路径也始终在GTNs中排在首位。这表明GTN能够学习元路径对于任务的重要性。更有趣的是,GTNs发现了重要的元路径,它们不在预定义的元路径集中。例如,在DBLP数据集中,GTN将APC列为最重要的元路径,它不包括在预定义的元路径集中。作者的研究领域(标记为预测)与作者发表文章的地点有关,这是有意义的。我们认为GTNs的可解释性通过元路径上的注意分数为节点分类提供了有用的洞察力。



图3显示了每个图转换层的邻接矩阵(边类型)的注意分数。与DBLP结果相比,恒等矩阵在IMDB中具有更高的注意力得分。正如在上文中所讨论的,GTN能够学习比GT层数更短的元路径,它们与IMDB一样更有效。通过将较高的注意力分数分配给恒等矩阵,GTN试图坚持较短的元路径,即使是在较深的层。这个结果表明GTN能够根据数据集自适应地学习最有效的元路径长度。


{

结论

Conclusion

}


我们提出了一种在异构图上学习节点表示的图变换网络。 该方法将异构图转化为由任意边类型和任意长度的元路径定义的多个新图,同时通过对学习到的元路径图进行卷积学习节点表示。 所学习的图结构使节点表示更加有效,使得在异构图的所有三种基准节点分类任务上,在没有任何预定义的领域知识元路径的情况下,获得了最先进的性能。 由于我们的图转换层可以与现有的GNN相结合,我们认为我们的框架为GNN提供了一种新的方法,使其能够自行优化图结构,根据数据和任务操作卷积,而无需任何人工操作。 有趣的未来方向包括研究GT层与不同种类的GNNs而非GCNs组合的功效。 此外,由于最近出现了一些研究诸如连接预测和图分类的其它网络分析任务研的几个异构图数据集,所以将GTNs应用于其它任务也是令人感兴趣的未来方向。


附注:更多知识图谱资料请上,专知网站查看,
https://www.zhuanzhi.ai/topic/2001005380553956



-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册成为专知会员,查看5000+AI主题知识资料
登录查看更多
231

相关内容

基于网络的表示学习研究旨在探索能够更好地研究分析复杂信息网络中的节点间的联系, 寻找解决信息网络背景下的各种实际问题的普适方法, 有效融合网络结构与节点外部信息, 形成更具区分性的网络表示. 近年来, 网络表示学习问题吸引了大量的研究者的目光, 相关的论文工作也层出不穷。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
108+阅读 · 2020年7月9日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
125+阅读 · 2020年6月28日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
50+阅读 · 2020年4月8日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
102+阅读 · 2020年2月22日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
86+阅读 · 2019年11月27日
当深度强化学习遇见图神经网络
专知
204+阅读 · 2019年10月21日
【泡泡点云时空】PointConv: 3D点云的深度卷积网络
泡泡机器人SLAM
21+阅读 · 2019年6月12日
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
35+阅读 · 2019年4月23日
图注意力网络
科技创新与创业
32+阅读 · 2017年11月22日
基于注意力机制的图卷积网络
科技创新与创业
71+阅读 · 2017年11月8日
Heterogeneous Graph Transformer
Arxiv
23+阅读 · 2020年3月3日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
5+阅读 · 2019年7月11日
Arxiv
6+阅读 · 2019年4月8日
Deep Graph Infomax
Arxiv
12+阅读 · 2018年12月21日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年2月4日
VIP会员
相关VIP内容
相关资讯
图神经网络(Graph Neural Networks,GNN)综述
极市平台
86+阅读 · 2019年11月27日
当深度强化学习遇见图神经网络
专知
204+阅读 · 2019年10月21日
【泡泡点云时空】PointConv: 3D点云的深度卷积网络
泡泡机器人SLAM
21+阅读 · 2019年6月12日
HAN:基于双层注意力机制的异质图深度神经网络
PaperWeekly
35+阅读 · 2019年4月23日
图注意力网络
科技创新与创业
32+阅读 · 2017年11月22日
基于注意力机制的图卷积网络
科技创新与创业
71+阅读 · 2017年11月8日
相关论文
Heterogeneous Graph Transformer
Arxiv
23+阅读 · 2020年3月3日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
5+阅读 · 2019年7月11日
Arxiv
6+阅读 · 2019年4月8日
Deep Graph Infomax
Arxiv
12+阅读 · 2018年12月21日
Arxiv
17+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员