随着机器学习模型和数据量的增大,大规模分布式训练决定了模型部署的效率。去中心化,作为一种经典的分布式系统设计原型,近年来在扩展机器学习规模上显示出良好的效率和鲁棒性。本文基于此背景,探究了不同去中心化系统下训练复杂度的理论极限;并进一步提出了两种算法,其复杂度可以达到该理论极限。 论文链接:

http://proceedings.mlr.press/v139/lu21a/lu21a.pdf

成为VIP会员查看完整内容
26

相关内容

专知会员服务
25+阅读 · 2021年9月25日
专知会员服务
37+阅读 · 2021年7月17日
专知会员服务
20+阅读 · 2021年5月30日
专知会员服务
82+阅读 · 2021年5月10日
专知会员服务
48+阅读 · 2021年2月2日
【ICML2021】低秩Sinkhorn 分解
专知
9+阅读 · 2021年8月20日
标贝科技:TensorFlow 框架提升语音合成效果
谷歌开发者
6+阅读 · 2019年4月29日
Arxiv
0+阅读 · 2021年11月16日
Arxiv
3+阅读 · 2020年2月12日
VIP会员
相关VIP内容
专知会员服务
25+阅读 · 2021年9月25日
专知会员服务
37+阅读 · 2021年7月17日
专知会员服务
20+阅读 · 2021年5月30日
专知会员服务
82+阅读 · 2021年5月10日
专知会员服务
48+阅读 · 2021年2月2日
相关资讯
微信扫码咨询专知VIP会员