This paper investigates the role of dimensionality reduction in efficient communication and differential privacy (DP) of the local datasets at the remote users for over-the-air computation (AirComp)-based federated learning (FL) model. More precisely, we consider the FL setting in which clients are prompted to train a machine learning model by simultaneous channel-aware and limited communications with a parameter server (PS) over a Gaussian multiple-access channel (GMAC), so that transmissions sum coherently at the PS globally aware of the channel coefficients. For this setting, an algorithm is proposed based on applying federated stochastic gradient descent (FedSGD) for training the minimum of a given loss function based on the local gradients, Johnson-Lindenstrauss (JL) random projection for reducing the dimension of the local updates, and artificial noise to further aid user's privacy. For this scheme, our results show that the local DP performance is mainly improved due to injecting noise of greater variance on each dimension while keeping the sensitivity of the projected vectors unchanged. This is while the convergence rate is slowed down compared to the case without dimensionality reduction. As the performance outweighs for the slower convergence, the trade-off between privacy and convergence is higher but is shown to lessen in high-dimensional regime yielding almost the same trade-off with much less communication cost.


翻译:本文调查了远程用户在超空计算(AirComp)基于联合学习(FL)模型中减少本地数据集在高效通信和不同隐私(DP)方面作用的维度作用。更准确地说,我们考虑了FL设置,即通过同步频道认知和与高山多进入频道(GMAC)的参数服务器(PS)进行有限的通信,促使客户培训机器学习模式,同时通过高山多进入频道(GMAC)与参数服务器(PS)进行通信,使PS全球对频道系数有更一致的认识,从而能够一致地进行传输。为此设定了一种算法,以采用基于超空计算(AirComp)基于联合梯度的梯度下降(FedSGD)模型(FedSGD)来培训一个最小的损失功能。更精确地说,我们考虑FL的设置,即客户通过同步的频道认知和有限的通信(PS)通过一个参数服务器(PS)在高空进入通道频道(GMAC)来培训一个机器学习模式。我们的结果显示,当地DP业绩的改善主要是由于在每一个层面的噪音造成更大的差异,同时使预测矢量的变化也保持了。 矢量的敏感度的敏感度下降。这与高度的趋慢化速度,而贸易的趋同比的递减慢,而贸易的趋同率则显示贸易的递减速度慢。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年1月18日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
专知会员服务
44+阅读 · 2020年10月31日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
人工智能 | ACCV 2020等国际会议信息5条
Call4Papers
6+阅读 · 2019年6月21日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年7月21日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
人工智能 | ACCV 2020等国际会议信息5条
Call4Papers
6+阅读 · 2019年6月21日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员