Federated Learning (FL) faces significant challenges related to communication efficiency and performance reduction when scaling to many clients. To address these issues, we explore the potential of using low-rank updates and provide the first theoretical study of rank properties in FL. Our theoretical analysis shows that a client's loss exhibits a higher-rank structure (i.e., gradients span higher-rank subspaces of the Hessian) compared to the server's loss, and that low-rank approximations of the clients' gradients have greater similarity. Based on this insight, we hypothesize that constraining client-side optimization to a low-rank subspace could provide an implicit regularization effect while reducing communication costs. Consequently, we propose FedLoRU, a general low-rank update framework for FL. Our framework enforces low-rank client-side updates and accumulates these updates to form a higher-rank model. We are able to establish convergence of the algorithm; the convergence rate matches FedAvg. Additionally, variants of FedLoRU can adapt to environments with statistical and model heterogeneity by employing multiple or hierarchical low-rank updates. Experimental results demonstrate that FedLoRU performs comparably to full-rank algorithms and exhibits robustness to heterogeneous and large numbers of clients.


翻译:联邦学习(FL)在扩展到众多客户端时面临通信效率和性能下降的重大挑战。为应对这些问题,本文探讨了使用低秩更新的潜力,并首次对FL中的秩特性进行了理论研究。理论分析表明,相较于服务器损失,客户端损失呈现出更高秩的结构(即梯度跨越海森矩阵的更高秩子空间),且客户端梯度的低秩近似具有更高的相似性。基于这一洞见,我们假设将客户端优化约束在低秩子空间可在降低通信成本的同时提供隐式正则化效应。为此,我们提出了FedLoRU——一种通用的联邦学习低秩更新框架。该框架强制客户端进行低秩更新,并通过累积这些更新形成更高秩的模型。我们证明了该算法的收敛性,其收敛速率与FedAvg相匹配。此外,FedLoRU的变体可通过采用多重或分层低秩更新,适应统计异质性和模型异质性环境。实验结果表明,FedLoRU的性能与全秩算法相当,并对异构及大规模客户端具有鲁棒性。

0
下载
关闭预览

相关内容

专知会员服务
12+阅读 · 2021年6月20日
专知会员服务
42+阅读 · 2021年1月18日
专知会员服务
29+阅读 · 2020年10月2日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员