We study the training of deep neural networks by gradient descent where floating-point arithmetic is used to compute the gradients. In this framework and under realistic assumptions, we demonstrate that it is highly unlikely to find ReLU neural networks that maintain, in the course of training with gradient descent, superlinearly many affine pieces with respect to their number of layers. In virtually all approximation theoretical arguments which yield high order polynomial rates of approximation, sequences of ReLU neural networks with exponentially many affine pieces compared to their numbers of layers are used. As a consequence, we conclude that approximating sequences of ReLU neural networks resulting from gradient descent in practice differ substantially from theoretically constructed sequences. The assumptions and the theoretical results are compared to a numerical study, which yields concurring results.


翻译:我们研究深神经网络的深层神经网络的深层梯度下降,使用浮点计算法来计算梯度。在这个框架和现实假设下,我们证明极不可能找到在梯度下降培训过程中保持与其层数有关的超线性大量线性神经网络。几乎所有近似理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论和理论理论理论理论理论理论理论理论理论理论理论理论理论和理论理论理论理论理论理论理论理论理论理论和理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论和理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论理论

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
46+阅读 · 2021年4月24日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium5
中国图象图形学学会CSIG
1+阅读 · 2021年11月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月9日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
13+阅读 · 2021年5月25日
VIP会员
相关资讯
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium8
中国图象图形学学会CSIG
0+阅读 · 2021年11月16日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium6
中国图象图形学学会CSIG
2+阅读 · 2021年11月12日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium5
中国图象图形学学会CSIG
1+阅读 · 2021年11月11日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium3
中国图象图形学学会CSIG
0+阅读 · 2021年11月9日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium2
中国图象图形学学会CSIG
0+阅读 · 2021年11月8日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium1
中国图象图形学学会CSIG
0+阅读 · 2021年11月3日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员