Random Reshuffling (RR), also known as Stochastic Gradient Descent (SGD) without replacement, is a popular and theoretically grounded method for finite-sum minimization. We propose two new algorithms: Proximal and Federated Random Reshuffing (ProxRR and FedRR). The first algorithm, ProxRR, solves composite convex finite-sum minimization problems in which the objective is the sum of a (potentially non-smooth) convex regularizer and an average of $n$ smooth objectives. We obtain the second algorithm, FedRR, as a special case of ProxRR applied to a reformulation of distributed problems with either homogeneous or heterogeneous data. We study the algorithms' convergence properties with constant and decreasing stepsizes, and show that they have considerable advantages over Proximal and Local SGD. In particular, our methods have superior complexities and ProxRR evaluates the proximal operator once per epoch only. When the proximal operator is expensive to compute, this small difference makes ProxRR up to $n$ times faster than algorithms that evaluate the proximal operator in every iteration. We give examples of practical optimization tasks where the proximal operator is difficult to compute and ProxRR has a clear advantage. Finally, we corroborate our results with experiments on real data sets.


翻译:随机重整(RR),又称“不替换的慢速渐变源(SGD)”,是一种流行的、理论上基于理论的限定总和最小化方法。我们提出了两种新的算法:先质和联质随机重整(ProxRR和FedRRR)。第一个算法(ProxRR),解决了复合共解(convex)有限总和最小化问题,其目标是一个(可能非摩特的)顺流调节器和平均平滑目标的总和。我们得到了第二个算法(FedRR),作为ProxR在重新处理分布的问题时应用的一种特殊案例,要么是同质数据,要么是混杂数据。我们用恒定的和递减步骤来研究算法的趋同特性,表明它们比ProxRR(Prox)和本地 SGD(SGD)具有相当大的优势。特别是,我们的方法比较复杂,ProxRR(prox)只对准操作者作一次评估,这样小的差别使得ProxRRR(ProxR)的计算速度比评估前期的精确度优势要快得多。我们用最难的实验者最后都以证实。

0
下载
关闭预览

相关内容

专知会员服务
94+阅读 · 2020年12月8日
【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
8+阅读 · 2019年3月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
0+阅读 · 2021年4月7日
Arxiv
0+阅读 · 2021年4月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
8+阅读 · 2019年3月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员