Federated learning introduces a novel approach to training machine learning (ML) models on distributed data while preserving user's data privacy. This is done by distributing the model to clients to perform training on their local data and computing the final model at a central server. To prevent any data leakage from the local model updates, various works with focus on secure aggregation for privacy preserving federated learning have been proposed. Despite their merits, most of the existing protocols still incur high communication and computation overhead on the participating entities and might not be optimized to efficiently handle the large update vectors for ML models. In this paper, we present E-seaML, a novel secure aggregation protocol with high communication and computation efficiency. E-seaML only requires one round of communication in the aggregation phase and it is up to 318x and 1224x faster for the user and the server (respectively) as compared to its most efficient counterpart. E-seaML also allows for efficiently verifying the integrity of the final model by allowing the aggregation server to generate a proof of honest aggregation for the participating users. This high efficiency and versatility is achieved by extending (and weakening) the assumption of the existing works on the set of honest parties (i.e., users) to a set of assisting nodes. Therefore, we assume a set of assisting nodes which assist the aggregation server in the aggregation process. We also discuss, given the minimal computation and communication overhead on the assisting nodes, how one could assume a set of rotating users to as assisting nodes in each iteration. We provide the open-sourced implementation of E-seaML for public verifiability and testing.


翻译:联邦学习引入了一种新的方法,可以在保护用户数据隐私的同时,在分布式数据上训练机器学习模型。这是通过将模型分发给客户端,在其本地数据上执行训练,并在中央服务器计算最终模型来完成的。为了防止本地模型更新的任何数据泄露,已经提出了许多聚合协议,重点关注联邦学习的隐私保护。尽管它们有很多优点,但大多数现有协议仍然会对参与实体产生高通信和计算负担,并且可能无法优化以有效处理ML模型的大型更新向量。在本文中,我们提出了E-seaML,一种具有高通信和计算效率的新型安全聚合协议。E-seaML在聚合阶段只需要一轮通信,相对于其最有效的同类,用户和服务器分别可以快速318倍和1224倍。E-seaML还允许通过允许聚合服务器生成有关参与用户的诚实聚合的证明来有效地验证最终模型的完整性。通过将现有工作关于诚实方面(即用户)的集合的假设扩展(和削弱)为协助节点的集合,实现了这种高效性和多功能性。因此,我们假设一组协助聚合服务器执行聚合过程的协助节点。我们还讨论了如何在每次迭代中假设一组旋转用户作为协助节点,从而最小化协助节点的计算和通信开销。我们提供了E-seaML的开源实现,以进行公共可验证性和测试。

0
下载
关闭预览

相关内容

「联邦学习模型安全与隐私」研究进展
专知会员服务
65+阅读 · 2022年9月24日
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
115+阅读 · 2022年4月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
「联邦学习模型安全与隐私」研究进展
专知
4+阅读 · 2022年9月24日
FedGraph2022 | 首届国际联邦图学习研讨会
图与推荐
2+阅读 · 2022年8月9日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
10+阅读 · 2021年3月30日
VIP会员
相关VIP内容
「联邦学习模型安全与隐私」研究进展
专知会员服务
65+阅读 · 2022年9月24日
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
115+阅读 · 2022年4月21日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员