联邦学习(federal Learning, FL)是一种去中心化的机器学习范式,其中全局服务器迭代地聚合本地用户的模型参数,而不访问他们的数据。用户异质性给FL带来了重大挑战,这可能导致漂移的全局模型收敛缓慢。为了解决这个问题,最近出现了知识蒸馏(Knowledge Distillation),它使用来自异构用户的聚合知识来精炼服务器模型,而不是直接聚合他们的模型参数。然而,这种方法依赖于代理数据集,因此除非满足这些前提条件,否则是不切实际的。此外,没有充分利用集成知识来指导局部模型学习,这可能会影响聚合模型的质量。在这项工作中,我们提出了一种无数据的知识蒸馏方法来解决异构的FL,其中服务器学习一个轻量级的生成器以无数据的方式集成用户信息,然后将这些信息广播给用户,使用学习到的知识作为归纳偏差来调节本地训练。理论支持的实证研究表明,与现状相比,我们的方法使用更少的通信轮次,使FL具有更好的泛化性能。

https://www.zhuanzhi.ai/paper/662ba057e6661b256a53516378ffbf30

成为VIP会员查看完整内容
35

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
专知会员服务
65+阅读 · 2021年8月1日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
24+阅读 · 2021年7月8日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
58+阅读 · 2021年6月11日
专知会员服务
19+阅读 · 2021年3月12日
TKDE 2020 | 面向严格冷启动推荐的属性图神经网络
PaperWeekly
12+阅读 · 2020年12月18日
联邦学习简介
AINLP
5+阅读 · 2020年8月6日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
Arxiv
0+阅读 · 2021年9月8日
Arxiv
91+阅读 · 2020年2月28日
Arxiv
3+阅读 · 2020年2月12日
Advances and Open Problems in Federated Learning
Arxiv
17+阅读 · 2019年12月10日
Arxiv
5+阅读 · 2019年10月11日
VIP会员
相关VIP内容
专知会员服务
65+阅读 · 2021年8月1日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
24+阅读 · 2021年7月8日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
58+阅读 · 2021年6月11日
专知会员服务
19+阅读 · 2021年3月12日
相关资讯
TKDE 2020 | 面向严格冷启动推荐的属性图神经网络
PaperWeekly
12+阅读 · 2020年12月18日
联邦学习简介
AINLP
5+阅读 · 2020年8月6日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
微信扫码咨询专知VIP会员