题目:Interpreting and Unifying Graph Neural Networks with An Optimization Framework

作者:Meiqi Zhu, Xiao Wang, Chuan Shi, Houye Ji, Peng Cui

简介:图神经网络(GNNs)在各种图分析任务中得到了相当广泛的关注。设计良好的消息传递机制是经典图神经网络中最基本的组成成分,并且经验与实验证明该部分是非常有效的。虽然传播机制多种多样,但基本都是通过沿着网络拓扑结构聚合节点特征来利用网络结构与特征信息的。鉴于此,一个问题自然产生:”尽管图神经网络有着不同的传播策略,是否存在一个统一的数学准则,从本质上指导这不同图神经网络的传播过程?如果有的话,是什么?“ 对这个问题较为完善的答案,可以帮助我们从宏观上有原则地考察不同图神经网络之间的关系和差异,并且这样的数学准则一旦被提出,就能够帮助我们发现现有图神经网络的不足之处,进而激发设计更多新的图神经网络。

在本文中,我们致力于建立不同图神经网络传播机制之间的联系,将他们的传播过程建模成一个统一的优化问题。分析表明,多种经典图神经网络的传播机制实际上是在优化一个结合了特征拟合约束项和图拉普拉斯正则化约束项的优化目标,而他们传播后的节点表示可以隐式地看作是这个统一优化目标的最优解。特征拟合项旨在建立节点表示与原始节点特征之间的关系,通常用于满足特定图神经网络的不同需求。图拉普拉斯正则化项则是这些图神经网络所共享的,它起到拓扑平滑特征的作用。

我们提出的统一优化目标框架,总结了几种最具代表性的GNN之间的共性,不仅为探索不同GNN之间的关系提供了一个宏观的视角,也进一步为灵活设计GNN提供了新的机会。传统上,在提出一种新的图神经网络模型时,我们通常侧重于设计特定的谱域滤波器或空域聚合策略。现在,统一的优化目标框架为实现这一目标提供了另一种新的途径,即通过设计传播目标函数而得到新的图神经网络。这样,我们就清楚地知道传播过程背后的优化目标,使新设计的图神经网络更具有可解释性和可靠性。举例来说,本文我们发现现有的工作通常使用非常简单的图卷积核来设计特征拟合约束项,因此基于现有的不足开发出两个具有可调低通和高通滤波器性质的灵活优化目标函数。此外,我们提供了收敛证明和表达能力的比较。在基准数据集上进行的大量实验表明,基于本文优化框架提出的GNN模型不仅性能优于现有的优化方法,而且能够很好地缓解过度平滑问题,进一步验证了采用统一优化框架设计GNN的可行性。

成为VIP会员查看完整内容
43

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
28+阅读 · 2021年2月26日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
37+阅读 · 2020年11月24日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
39+阅读 · 2020年11月22日
注意力图神经网络的小样本学习
专知会员服务
190+阅读 · 2020年7月16日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
NeurIPS 2019 开源论文 | 万能的GNN解释器
图与推荐
6+阅读 · 2020年5月17日
【GNN】MPNN:消息传递神经网络
深度学习自然语言处理
17+阅读 · 2020年4月11日
图神经网络三剑客:GCN、GAT与GraphSAGE
PaperWeekly
64+阅读 · 2020年2月27日
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
重新思考图卷积网络:GNN只是一种滤波器
新智元
28+阅读 · 2019年6月3日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
91+阅读 · 2020年2月28日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年3月17日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年2月26日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
专知会员服务
37+阅读 · 2020年11月24日
【WSDM2021】保存节点相似性的图卷积网络
专知会员服务
39+阅读 · 2020年11月22日
注意力图神经网络的小样本学习
专知会员服务
190+阅读 · 2020年7月16日
【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
146+阅读 · 2020年6月28日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
相关资讯
NeurIPS 2019 开源论文 | 万能的GNN解释器
图与推荐
6+阅读 · 2020年5月17日
【GNN】MPNN:消息传递神经网络
深度学习自然语言处理
17+阅读 · 2020年4月11日
图神经网络三剑客:GCN、GAT与GraphSAGE
PaperWeekly
64+阅读 · 2020年2月27日
当深度强化学习遇见图神经网络
专知
224+阅读 · 2019年10月21日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
重新思考图卷积网络:GNN只是一种滤波器
新智元
28+阅读 · 2019年6月3日
相关论文
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
91+阅读 · 2020年2月28日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
13+阅读 · 2018年12月6日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
7+阅读 · 2018年3月17日
Arxiv
7+阅读 · 2018年1月10日
微信扫码咨询专知VIP会员