可扩展的图神经网络(GNNs)已经成为一种有前途的技术,它在许多大规模基于图的网络应用中展现出了卓越的预测性能和高运行效率。然而,(i)大多数可扩展的GNNs倾向于使用相同的传播规则处理所有节点,忽略了它们的拓扑独特性;(ii)现有的节点式传播优化策略在具有复杂拓扑结构的网络规模图上不足够,这类图要求全面描述节点的局部属性。直观地说,网络规模图中的不同节点拥有不同的拓扑角色,因此不加区分地传播它们或忽略局部上下文可能会损害节点表示的质量。为了解决上述问题,我们提出了自适应拓扑感知传播(ATP),它减少了潜在的高偏差传播,并以可扩展的方式提取每个节点的结构模式,以提高运行效率和预测性能。值得注意的是,ATP被设计为一种即插即用的节点式传播优化策略,允许离线执行,独立于图学习过程,提供了一个新的视角。因此,这种方法可以无缝集成到大多数可扩展的GNNs中,同时与现有的节点式传播优化策略保持正交。在12个数据集上的广泛实验已经证明了ATP的有效性。

成为VIP会员查看完整内容
18

相关内容

【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
18+阅读 · 2月15日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
37+阅读 · 2023年6月4日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
19+阅读 · 2022年4月20日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
62+阅读 · 2021年7月25日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【WWW2024】使用图神经网络的消歧节点分类
专知会员服务
18+阅读 · 2月15日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
37+阅读 · 2023年6月4日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
19+阅读 · 2022年4月20日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
专知会员服务
16+阅读 · 2021年7月31日
专知会员服务
62+阅读 · 2021年7月25日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员