Federated learning (FL) is a distributed model for deep learning that integrates client-server architecture, edge computing, and real-time intelligence. FL has the capability of revolutionizing machine learning (ML) but lacks in the practicality of implementation due to technological limitations, communication overhead, non-IID (independent and identically distributed) data, and privacy concerns. Training a ML model over heterogeneous non-IID data highly degrades the convergence rate and performance. The existing traditional and clustered FL algorithms exhibit two main limitations, including inefficient client training and static hyper-parameter utilization. To overcome these limitations, we propose a novel hybrid algorithm, namely genetic clustered FL (Genetic CFL), that clusters edge devices based on the training hyper-parameters and genetically modifies the parameters cluster-wise. Then, we introduce an algorithm that drastically increases the individual cluster accuracy by integrating the density-based clustering and genetic hyper-parameter optimization. The results are bench-marked using MNIST handwritten digit dataset and the CIFAR-10 dataset. The proposed genetic CFL shows significant improvements and works well with realistic cases of non-IID and ambiguous data.


翻译:联邦学习(FL)是将客户-服务器结构、边缘计算和实时智能结合起来的深层次学习的分布模式,FL具有使机器学习(ML)革命化的能力,但由于技术限制、通信管理费、非IID(独立和同样分布)数据和隐私问题,FL缺乏实施的实际性。对多种非IID数据进行ML模型培训,会大大降低趋同率和性能。现有的传统和集群FL算法存在两个主要局限性,包括客户培训效率低下和静态超光谱利用。为了克服这些局限性,我们建议采用新型混合算法,即基因集群FL(Genetic CFL)(Generictic CFL)(Group ) (ML) (ML) (ML) ) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (ML) (Meless 能力,但由于技术限制、通信限制、通信管理、通信管理、通信管理、通信管理、通信管理、通信管理、通信管理、非IID(独立和不切合而缺乏分配) (独立和不可行性数据) (非IID) 数据,但缺乏私隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐隐性能而缺乏而缺乏而缺乏而缺乏实际性而缺乏实际性。然后我们。我们引入一种算算法。我们引入一种算法,而引入一种算法,而采用一种计算法,而使个人集性地改变性地能边装置(ML) (M) (M) (ML(ML) (I) (I) (I(I) (I) (I) (I) (I) (I) (I) (I) (I) (ID) (ID) (I) (ID) (不相能边线) (不相能) 和基因基) (I) (ID) (I) (ID) (I) (I) (I) (IL) (

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
因果关联学习,Causal Relational Learning
专知会员服务
180+阅读 · 2020年4月21日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【推荐】手把手深度学习模型部署指南
机器学习研究会
5+阅读 · 2018年1月23日
【推荐】Python机器学习生态圈(Scikit-Learn相关项目)
机器学习研究会
6+阅读 · 2017年8月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年1月23日
Arxiv
10+阅读 · 2021年3月30日
Federated Learning with Personalization Layers
Arxiv
4+阅读 · 2019年12月2日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【推荐】手把手深度学习模型部署指南
机器学习研究会
5+阅读 · 2018年1月23日
【推荐】Python机器学习生态圈(Scikit-Learn相关项目)
机器学习研究会
6+阅读 · 2017年8月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员