Due to the homophily assumption in graph convolution networks (GNNs), a common consensus in the graph node classification task is that GNNs perform well on homophilic graphs but may fail on heterophilic graphs with many inter-class edges. However, the previous inter-class edges perspective and related homo-ratio metrics cannot well explain the GNNs performance under some heterophilic datasets, which implies that not all the inter-class edges are harmful to GNNs. In this work, we propose a new metric based on von Neumann entropy to re-examine the heterophily problem of GNNs and investigate the feature aggregation of inter-class edges from an entire neighbor identifiable perspective. Moreover, we propose a simple yet effective Conv-Agnostic GNN framework (CAGNNs) to enhance the performance of most GNNs on heterophily datasets by learning the neighbor effect for each node. Specifically, we first decouple the feature of each node into the discriminative feature for downstream tasks and the aggregation feature for graph convolution. Then, we propose a shared mixer module to adaptively evaluate the neighbor effect of each node to incorporate the neighbor information. The proposed framework can be regarded as a plug-in component and is compatible with most GNNs. The experimental results over nine well-known benchmark datasets indicate that our framework can significantly improve performance, especially for the heterophily graphs. The average performance gain is 9.81%, 25.81%, and 20.61% compared with GIN, GAT, and GCN, respectively. Extensive ablation studies and robustness analysis further verify the effectiveness, robustness, and interpretability of our framework. Code is available at https://github.com/JC-202/CAGNN.


翻译:由于图卷积网络(GNN)中同质性假设的存在,图节点分类任务的一个共识是GNN在同质图上表现良好,但在具有许多跨类别边的异质图上可能会失败。然而,之前的跨类别边角度和相关的同质比度量不能很好地解释GNN在某些异质数据集下的表现,这意味着并不是所有的跨类别边都对GNN造成危害。在本文中,我们提出了一种基于von Neumann熵的新度量来重新审视GNN的异质性问题,并从整个邻居可识别的角度研究跨类别边的特征聚合。此外,我们提出了一个简单而有效的Conv-Agnostic GNN框架(CAGNNs),通过学习每个节点的邻居效应来增强大多数GNN在异质数据集上的性能。具体而言,我们首先将每个节点的特征分解为下游任务的判别特征和图卷积的聚合特征。然后,我们提出了一个共享混合器模块,以自适应评估每个节点的邻居效应以整合邻居信息。所提出的框架可以被视为插件组件,并且与大多数GNN兼容。在九个知名基准数据集上的实验结果表明,我们的框架可以显著提高性能,特别是在异质图上。平均性能增益分别与GIN、GAT和GCN相比分别为9.81%,25.81%和20.61%。广泛的消融研究和鲁棒性分析进一步验证了我们框架的有效性、鲁棒性和可解释性。代码可在 https://github.com/JC-202/CAGNN 获取。

0
下载
关闭预览

相关内容

【ICML2022】图神经网络的局域数据增强方法
专知会员服务
30+阅读 · 2022年7月24日
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知会员服务
35+阅读 · 2022年3月28日
专知会员服务
43+阅读 · 2020年9月3日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
IJCAI 2022 | 超越同质性的图神经网络
PaperWeekly
0+阅读 · 2022年9月6日
AAAI 2022 | 对抗攻击鲁棒的异质图神经网络
PaperWeekly
1+阅读 · 2022年8月16日
一文带你浏览Graph Transformers
PaperWeekly
1+阅读 · 2022年7月8日
【NeurIPS2019】图变换网络:Graph Transformer Network
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月31日
Arxiv
21+阅读 · 2021年2月13日
Arxiv
19+阅读 · 2021年2月4日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
13+阅读 · 2019年11月14日
Arxiv
23+阅读 · 2018年10月1日
VIP会员
相关资讯
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
IJCAI 2022 | 超越同质性的图神经网络
PaperWeekly
0+阅读 · 2022年9月6日
AAAI 2022 | 对抗攻击鲁棒的异质图神经网络
PaperWeekly
1+阅读 · 2022年8月16日
一文带你浏览Graph Transformers
PaperWeekly
1+阅读 · 2022年7月8日
【NeurIPS2019】图变换网络:Graph Transformer Network
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员