为什么在小数据集上训练的具有大量参数的神经网络仍然可以准确地对未见过的数据进行分类?这种"泛化之谜"已经成为深度学习中的一个核心问题。除了传统的监督学习设置,深度学习的成功扩展到许多其他体制,在这些体制中,我们对泛化行为的理解甚至更加难以捉摸。本文从监督学习开始,最终目的是通过提出新的理论框架和实用工具,阐明深度神经网络在生成式建模和自适应数据分析中的泛化性能。

https://dataspace.princeton.edu/handle/88435/dsp01k35697481

首先,证明了有监督深度神经网络的泛化界,建立在经验观察的基础上,即在真实数据集上训练的深度网络的推理计算对噪声具有高度的抵抗力。根据信息理论的原则,噪声稳定性表明冗余和可压缩性,我们提出了一种新的训练网络的简洁压缩,这导致了更好的泛化估计。建立了生成对抗网络(GANs)的有限容量分析。该研究对GANs学习分布能力的局限性进行了深入的了解,并提供了经验证据,表明著名的GANs方法确实会导致退化解决方案。尽管结果消极,但本文继续展示了GANs的一个令人惊讶的积极用例:可以使用在相同训练集上训练的GAN模型生成的合成数据准确预测深度神经网络分类器的测试性能。

最后,探讨了深度学习模型在经过多年的数据重用后是否会过度拟合ImageNet等标准数据集的问题。我们提供了一个简单的估计,Rip Van Winkle 's Razor,用于测量由于数据过度使用而导致的过拟合。它依赖于一个新的概念,即必须提供给一个熟悉该领域和相关数学的专家裁判的信息量,他在创建测试集的时候刚刚睡着(就像童话故事中那样)。在许多ImageNet模型中,这种估计是非空的。

成为VIP会员查看完整内容
55

相关内容

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。
【剑桥大学博士论文】机器学习安全性,148页pdf
专知会员服务
41+阅读 · 2023年2月13日
【普林斯顿博士论文】构建高效深度神经网络,195页pdf
专知会员服务
62+阅读 · 2023年2月8日
【普林斯顿博士论文】神经符号机器学习推理,133页pdf
专知会员服务
50+阅读 · 2023年2月1日
【牛津大学博士论文】多模态自监督学习,172页pdf
专知会员服务
132+阅读 · 2022年10月4日
MNIST入门:贝叶斯方法
Python程序员
22+阅读 · 2017年7月3日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关基金
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员