Federated learning (FL) and split learning (SL) are two effective distributed learning paradigms in wireless networks, enabling collaborative model training across mobile devices without sharing raw data. While FL supports low-latency parallel training, it may converge to less accurate model. In contrast, SL achieves higher accuracy through sequential training but suffers from increased delay. To leverage the advantages of both, hybrid split and federated learning (HSFL) allows some devices to operate in FL mode and others in SL mode. This paper aims to accelerate HSFL by addressing three key questions: 1) How does learning mode selection affect overall learning performance? 2) How does it interact with batch size? 3) How can these hyperparameters be jointly optimized alongside communication and computational resources to reduce overall learning delay? We first analyze convergence, revealing the interplay between learning mode and batch size. Next, we formulate a delay minimization problem and propose a two-stage solution: a block coordinate descent method for a relaxed problem to obtain a locally optimal solution, followed by a rounding algorithm to recover integer batch sizes with near-optimal performance. Experimental results demonstrate that our approach significantly accelerates convergence to the target accuracy compared to existing methods.


翻译:联邦学习(FL)与分割学习(SL)是无线网络中两种有效的分布式学习范式,能够在移动设备间实现无需共享原始数据的协同模型训练。联邦学习支持低延迟的并行训练,但可能收敛至精度较低的模型;而分割学习通过顺序训练获得更高精度,却面临延迟增加的问题。为结合二者优势,混合分割与联邦学习(HSFL)允许部分设备以联邦学习模式运行,其余设备以分割学习模式运行。本文旨在通过解决三个关键问题来加速HSFL:1)学习模式选择如何影响整体学习性能?2)其与批次大小如何相互作用?3)如何将这些超参数与通信及计算资源联合优化以降低整体学习延迟?我们首先分析收敛性,揭示了学习模式与批次大小间的相互影响。随后,我们将延迟最小化问题建模为优化问题,并提出两阶段求解方案:采用块坐标下降法求解松弛问题以获得局部最优解,再通过舍入算法恢复整数批次大小并实现接近最优的性能。实验结果表明,相较于现有方法,本文方法能显著加速模型收敛至目标精度。

0
下载
关闭预览

相关内容

【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
专知会员服务
35+阅读 · 2021年9月18日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员