主题: Meet AdaMod: a new deep learning optimizer with memory

简介: AdaMod是一个新的深度学习优化器,它建立在Adam的基础上,但提供了一个自动预热启发式和长期学习率缓冲。从最初的测试来看,AdaMod是一个前5名的优化器,它很容易击败或超过vanilla Adam,同时对学习率超参数不太敏感,训练曲线更平滑,不需要热身模式。

成为VIP会员查看完整内容
15

相关内容

人工智能(Artificial Intelligence, AI )是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支。
深度学习优化算法总结(SGD,AdaGrad,Adam等)
极市平台
34+阅读 · 2019年4月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
深度学习基础之LSTM
全球人工智能
29+阅读 · 2017年12月18日
CNN超参数优化和可视化技巧详解
量子位
4+阅读 · 2017年7月15日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
VIP会员
相关资讯
深度学习优化算法总结(SGD,AdaGrad,Adam等)
极市平台
34+阅读 · 2019年4月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
深度学习基础之LSTM
全球人工智能
29+阅读 · 2017年12月18日
CNN超参数优化和可视化技巧详解
量子位
4+阅读 · 2017年7月15日
相关论文
微信扫码咨询专知VIP会员