Graph Neural Networks (GNNs) have shown success in learning from graph structured data containing node/edge feature information, with application to social networks, recommendation, fraud detection and knowledge graph reasoning. In this regard, various strategies have been proposed in the past to improve the expressiveness of GNNs. For example, one straightforward option is to simply increase the parameter size by either expanding the hid-den dimension or increasing the number of GNN layers. However, wider hidden layers can easily lead to overfitting, and incrementally adding more GNN layers can potentially result in over-smoothing.In this paper, we present a model-agnostic methodology, namely Network In Graph Neural Network (NGNN ), that allows arbitrary GNN models to increase their model capacity by making the model deeper. However, instead of adding or widening GNN layers, NGNN deepens a GNN model by inserting non-linear feedforward neural network layer(s) within each GNN layer. An analysis of NGNN as applied to a GraphSage base GNN on ogbn-products data demonstrate that it can keep the model stable against either node feature or graph structure perturbations. Furthermore, wide-ranging evaluation results on both node classification and link prediction tasks show that NGNN works reliably across diverse GNN architectures.For instance, it improves the test accuracy of GraphSage on the ogbn-products by 1.6% and improves the hits@100 score of SEAL on ogbl-ppa by 7.08% and the hits@20 score of GraphSage+Edge-Attr on ogbl-ppi by 6.22%. And at the time of this submission, it achieved two first places on the OGB link prediction leaderboard.


翻译:内建网络( GNN) 显示成功从含有节点/顶点特征信息的图形结构化数据中学习。 在这方面, 过去曾提出各种战略来提高 GNN 的外观性。 例如, 一个简单的选项就是通过扩大隐藏点尺寸或增加 GNN 层来增加参数大小。 然而, 范围更广的隐藏层很容易导致过度配置, 并增加更多的 GNN 层可能会导致过度覆盖。 在本文中, 我们提出了一个模型- 认知性方法, 即 网络在社交网络、 推荐、 欺诈检测和知识图形图推推推推推推。 这使得任意的 GNNNM 模型能够通过更深的模型来增加或扩大 GNNNT层。 然而, NNN不是通过在 GNNNNP 层中插入非线式的种子向前的网络层来深化GNNN 模型。 它通过GNNNG 20 和ONNO 的直径直径对O 的G- NNNO 直径基基点进行超高点分析, 在Obrational IM IM 图像结构上, 在不显示GNNNNG IM 平图图图图图图图图图上, 结构上, 在不透明图图图图图上显示不显示不显示GNNNNNNNNND 的图图图图图图图图图图图图的图的图图图图图的图的图图图图的图的图图。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
123+阅读 · 2021年6月4日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Network Embedding 指南
专知
21+阅读 · 2018年8月13日
论文|2017CIKM-Network Embedding专题论文分享
蚂蚁程序猿
8+阅读 · 2017年12月20日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
9+阅读 · 2018年2月4日
VIP会员
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Network Embedding 指南
专知
21+阅读 · 2018年8月13日
论文|2017CIKM-Network Embedding专题论文分享
蚂蚁程序猿
8+阅读 · 2017年12月20日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
相关论文
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
3+阅读 · 2020年4月29日
Arxiv
5+阅读 · 2019年9月25日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
9+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员