In recent years, several results in the supervised learning setting suggested that classical statistical learning-theoretic measures, such as VC dimension, do not adequately explain the performance of deep learning models which prompted a slew of work in the infinite-width and iteration regimes. However, there is little theoretical explanation for the success of neural networks beyond the supervised setting. In this paper we argue that, under some distributional assumptions, classical learning-theoretic measures can sufficiently explain generalization for graph neural networks in the transductive setting. In particular, we provide a rigorous analysis of the performance of neural networks in the context of transductive inference, specifically by analysing the generalisation properties of graph convolutional networks for the problem of node classification. While VC Dimension does result in trivial generalisation error bounds in this setting as well, we show that transductive Rademacher complexity can explain the generalisation properties of graph convolutional networks for stochastic block models. We further use the generalisation error bounds based on transductive Rademacher complexity to demonstrate the role of graph convolutions and network architectures in achieving smaller generalisation error and provide insights into when the graph structure can help in learning. The findings of this paper could re-new the interest in studying generalisation in neural networks in terms of learning-theoretic measures, albeit in specific problems.


翻译:近些年来,有监督的学习环境的一些结果表明,典型的统计学理论-理论计量方法,如VC维度,不能充分解释深层次学习模型的性能,这些模型在无限宽宽度和迭代制度下引发了大量工作。然而,对于神经网络的成功,除了有监督的环境之外,没有多少理论解释。在本文中,我们认为,根据某些分配假设,古老的学习理论-理论计量方法可以充分解释图解神经网络在传输环境中的概括性。我们尤其对神经网络在感知性推断中的表现进行严格分析,特别是分析图解变和网络网络网络网络在节点分类问题上的概括性能。虽然VC维度确实导致在这一环境中的微小一般误差,但我们也表明,根据某些分布式的图变异性网络的概括性特性可以解释图变异性特性。我们进一步使用基于转换式雷德马赫赫复杂度的概括性误差,以展示图变异性和网络在图变异性变化和网络结构中的作用。在研究一般变判时,可以帮助研究一般的图学研究一般误判。

4
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
29+阅读 · 2020年4月15日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
63+阅读 · 2021年6月18日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
3+阅读 · 2018年8月12日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年2月11日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
63+阅读 · 2021年6月18日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
3+阅读 · 2018年8月12日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2018年2月11日
Top
微信扫码咨询专知VIP会员