在这篇论文中,我展示了从训练初期开始,典型的计算机视觉神经网络就包含了能够单独训练以达到与原始未剪枝网络相同准确度的子网络。这些子网络——我通过在训练后剪枝并将权重回溯到训练早期的值来追溯地找到——与训练后最先进剪枝技术产生的子网络大小相同。它们依赖于结构和初始化的组合:如果修改了其中任何一个(通过重新初始化网络或改变每层剪枝的权重),准确度会下降。 在小规模设置中,我展示了这些子网络从初始化时就存在;在大规模设置中,我展示了它们在训练早期(< 训练进程的5%)就存在。一般而言,我发现这些子网络在优化它们的结果变得对用于训练它们的随机梯度下降(SGD)噪声的样本稳健时出现;也就是说,当它们不管数据顺序如何都训练到损失景观的相同凸区域时。这在小规模设置中在初始化时发生,在大规模设置中在训练早期发生。 这些发现的含义是,可能可以在训练早期对神经网络进行剪枝,这将创造一个从那时起大幅减少训练成本的机会。为了实现这一目标,我建立了一个框架,说明解决这个问题的成功会是什么样子,并调查了在初始化和训练早期剪枝神经网络的现有技术。我发现,在初始化时的幅度剪枝与该任务的最先进性能相匹配。此外,现有技术提取的唯一信息是剪枝网络的每层比例;在幅度剪枝的情况下,这意味着实现最先进结果所需的唯一信号是方差缩放初始化技术所使用的每层宽度。

成为VIP会员查看完整内容
37

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
【AAAI2023】深度神经网络的可解释性验证
专知会员服务
46+阅读 · 2022年12月6日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
11+阅读 · 2021年5月26日
【Nature通讯】深度神经网络模型中的个体差异
专知会员服务
13+阅读 · 2020年11月16日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
神经网络的基础数学,95页pdf
专知
22+阅读 · 2022年1月23日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月28日
MNIST入门:贝叶斯方法
Python程序员
22+阅读 · 2017年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
327+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
16+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【AAAI2023】深度神经网络的可解释性验证
专知会员服务
46+阅读 · 2022年12月6日
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
11+阅读 · 2021年5月26日
【Nature通讯】深度神经网络模型中的个体差异
专知会员服务
13+阅读 · 2020年11月16日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
51+阅读 · 2020年10月25日
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
相关资讯
神经网络的基础数学,95页pdf
专知
22+阅读 · 2022年1月23日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月28日
MNIST入门:贝叶斯方法
Python程序员
22+阅读 · 2017年7月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员