KDD线上分享|从自私和理性原则的视角,看联邦学习下的合作均衡理论

2022 年 8 月 8 日 机器之心



联邦学习(federated learning,FL)是指在保护数据隐私的前提下实现分布式多数据源模型训练的学习范式。由于各个数据源的统计异质性在现实场景下广泛存在,同时统计异质性也给联邦学习下合作式的模型学习带来了负面影响,甚至会损害模型性能。

因而,这也带来了一个基本问题:一个机构(client)加入合作网络能否获得增益,即参与合作是否意味着自身模型性能的提升。

事实上,一个机构并非总是与所有机构合作才能带来自身性能的最大化。清华大学三年级博士生崔森等人建立了联邦学习下的合作均衡理论,其中各个机构只与对其有利的机构合作,最大程度上避免负迁移的影响,从而实现自身模型性能的最大化。具体地,提出通过两个公理刻画合作均衡:自私原则:没有利益,就没有合作;理性原则:各个机构致力于最大化自身模型性能。他们还提出了增益图(benefit graph)的概念,描述了每个机构的最优合作者,并提出了一种基于帕累托优化的方法确定最优合作者。最后在理论上证明了合作均衡的存在性,并提出了一种基于图论的方法,实现 O(V+E) 时间复杂度下的合作均衡。

2022 年 8 月 10 日,机器之心最新一期线上分享邀请到了崔森,为大家详细解读联邦学习下的合作均衡。



分享主题:联邦学习下的合作均衡

分享嘉宾崔森,本科毕业于清华大学钱学森力学班,目前为清华大学信息学院博士三年级学生,师从清华大学张长水教授。主要研究方向为可信赖机器学习,包括算法公平性,鲁棒性,可解释性,和隐私保护等。他曾以第一作者身份在 SIGKDD、 NeurIPS 等机器学习会议上发表多篇论文,并担任 ICML、NeurIPS 等机器学习会议审稿人。


个人主页 https://cuis15.github.io,  非常期待与机器学习领域的学者经常交流探讨。


分享摘要 由于公众对数据隐私的关切,合作式的联邦学习在当前受到机器学习领域学者的广泛关注。合作总会伴随着代价,却并不总是带来利益。从合作与博弈的角度出发,我们提出合作均衡的概念,并给出一个基于图论的合作均衡的实现框架。

相关论文: https://arxiv.org/pdf/2108.07926.pdf

分享时间 2022 年 8 月 10 日 19:00-20:00

直播间: 关注机动组视频号,北京时间2月24日开播。
交流群: 本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。

机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。 机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。
  • 点击阅读原文,访问机动组官网,观看往期回顾

  • 关注机动组服务号,获取每周直播预告。
登录查看更多
0

相关内容

「联邦学习隐私保护 」最新2022研究综述
专知会员服务
114+阅读 · 2022年4月1日
【新书稿】公平性与机器学习——限制与机会,253页pdf
专知会员服务
30+阅读 · 2022年3月8日
联邦学习研究综述
专知会员服务
146+阅读 · 2021年12月25日
专知会员服务
91+阅读 · 2021年7月23日
专知会员服务
35+阅读 · 2021年7月9日
【CVPR2021】面向视频动作分割的高效网络结构搜索
专知会员服务
13+阅读 · 2021年3月14日
专知会员服务
26+阅读 · 2021年2月2日
快来注册参加微软亚洲研究院数据驱动的优化方法研讨会!
微软研究院AI头条
1+阅读 · 2022年11月18日
与人文学科专家一起,多角度探讨负责任的人工智能!
微软研究院AI头条
0+阅读 · 2022年10月20日
五篇论文,追踪可信联邦学习医疗领域研究前沿
机器之心
0+阅读 · 2022年10月18日
联邦学习攻防研究综述
专知
2+阅读 · 2022年7月15日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
99+阅读 · 2020年3月4日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关VIP内容
相关资讯
快来注册参加微软亚洲研究院数据驱动的优化方法研讨会!
微软研究院AI头条
1+阅读 · 2022年11月18日
与人文学科专家一起,多角度探讨负责任的人工智能!
微软研究院AI头条
0+阅读 · 2022年10月20日
五篇论文,追踪可信联邦学习医疗领域研究前沿
机器之心
0+阅读 · 2022年10月18日
联邦学习攻防研究综述
专知
2+阅读 · 2022年7月15日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
ICML'21 | 隐私保护下的图神经网络推荐系统
图与推荐
2+阅读 · 2021年11月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员