NeurIPS 是关于机器学习和计算神经科学的国际会议,宗旨是促进人工智能和机器学习研究进展的交流。NeurIPS 2025 会议将于12月2日至12月7日在圣地亚哥会议中心召开。

深度学习的发展依赖于梯度优化这一“黑暗艺术”。在深度学习中,优化过程往往呈现震荡、尖峰式变化和整体不稳定的特性。这些现象在经典优化理论中难以解释,因为传统理论主要研究的是良态、稳定的优化过程。然而,实践中效果最好的训练配置却始终运行在一种不稳定的 regime 下。 本教程将介绍近年来在理解训练不稳定性良性本质方面取得的理论进展,并从优化理论与统计学习的双重视角提供新的洞见。

参考文献:

References

Large stepsizes accelerates optimization

  • Large stepsize gradient descent for logistic loss: non-monotonicity of the loss improves optimization efficiency. Jingfeng Wu, Peter Bartlett, Matus Telgarsky, Bin Yu. COLT 2024.
  • Large stepsizes accelerate gradient descent for regularized logistic regression. Jingfeng Wu, Pierre Marion, Peter Bartlett. NeurIPS 2025.
  • Minimax optimal convergence of gradient descent in logistic regression via large and adaptive stepsizes. Ruiqi Zhang, Jingfeng Wu, Licong Lin, Peter Bartlett. ICML 2025.
  • Acceleration by stepsize hedging II: silver stepsize schedule for smooth convex optimization. Jason M. Altschuler, Pablo A. Parrilo. Mathematical Programming, 2024.
  • Composing optimized stepsize schedules for gradient descent. Benjamin Grimmer, Kevin Shu, Alex L. Wang. Mathematics of Operations Research, 2025.
成为VIP会员查看完整内容
0

相关内容

【NeurIPS2025教程】大语言模型规划
专知会员服务
2+阅读 · 今天11:15
【CMU博士论文】以人为中心的强化学习
专知会员服务
21+阅读 · 8月16日
用于自动驾驶的生成式人工智能:前沿与机遇
专知会员服务
25+阅读 · 5月16日
【斯坦福博士论文】在复杂环境中决策学习内容
专知会员服务
33+阅读 · 4月14日
【2022新书】联邦学习:方法和应用的综合概述
专知会员服务
148+阅读 · 2022年7月14日
深度强化学习理论最新进展,113页ppt
专知会员服务
77+阅读 · 2022年5月20日
「博弈论视角下多智能体强化学习」研究综述
专知会员服务
184+阅读 · 2022年4月30日
【吴恩达报告】以数据为中心的人工智能技巧
专知会员服务
55+阅读 · 2022年3月21日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
综述| 当图神经网络遇上强化学习
图与推荐
35+阅读 · 2022年7月1日
NLP命名实体识别开源实战教程 | 深度应用
AI100
15+阅读 · 2019年8月18日
万字长文概述NLP中的深度学习技术
全球人工智能
12+阅读 · 2019年2月28日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2009年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
493+阅读 · 2023年3月31日
Arxiv
177+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2025教程】大语言模型规划
专知会员服务
2+阅读 · 今天11:15
【CMU博士论文】以人为中心的强化学习
专知会员服务
21+阅读 · 8月16日
用于自动驾驶的生成式人工智能:前沿与机遇
专知会员服务
25+阅读 · 5月16日
【斯坦福博士论文】在复杂环境中决策学习内容
专知会员服务
33+阅读 · 4月14日
【2022新书】联邦学习:方法和应用的综合概述
专知会员服务
148+阅读 · 2022年7月14日
深度强化学习理论最新进展,113页ppt
专知会员服务
77+阅读 · 2022年5月20日
「博弈论视角下多智能体强化学习」研究综述
专知会员服务
184+阅读 · 2022年4月30日
【吴恩达报告】以数据为中心的人工智能技巧
专知会员服务
55+阅读 · 2022年3月21日
相关基金
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员