The protection of user privacy is an important concern in machine learning, as evidenced by the rolling out of the General Data Protection Regulation (GDPR) in the European Union (EU) in May 2018. The GDPR is designed to give users more control over their personal data, which motivates us to explore machine learning frameworks for data sharing that do not violate user privacy. To meet this goal, in this paper, we propose a novel lossless privacy-preserving tree-boosting system known as SecureBoost in the setting of federated learning. SecureBoost first conducts entity alignment under a privacy-preserving protocol and then constructs boosting trees across multiple parties with a carefully designed encryption strategy. This federated learning system allows the learning process to be jointly conducted over multiple parties with common user samples but different feature sets, which corresponds to a vertically partitioned data set. An advantage of SecureBoost is that it provides the same level of accuracy as the non-privacy-preserving approach while at the same time, reveals no information of each private data provider. We show that the SecureBoost framework is as accurate as other non-federated gradient tree-boosting algorithms that require centralized data and thus it is highly scalable and practical for industrial applications such as credit risk analysis. To this end, we discuss information leakage during the protocol execution and propose ways to provably reduce it.


翻译:保护用户隐私是机器学习中的一个重要关切问题,2018年5月,欧洲联盟(欧盟)推出《一般数据保护条例》(GDPR)就证明了这一点。GGDPR旨在让用户对其个人数据有更大的控制权,这促使我们探索不侵犯用户隐私的数据共享的机器学习框架。为了实现这一目标,我们在本文件中提议建立一个名为“安全保护”的无损隐私植树促进系统,在Federal学习的设置中,该系统被称为“安全保护”系统,它首先根据隐私保护协议进行实体调整,然后用精心设计的加密战略在多个政党之间构建树。这个联合学习系统使得学习过程能够由拥有共同用户样本但有不同特性的多个政党联合进行,这与纵向分割数据集相对应。SecreatBoost的优势是,它提供了与非隐私保护方法相同的准确度。安全Boost首先没有显示每个私人数据提供者的信息。我们显示,安全Boost框架是准确的,作为其他非中央化的、可更新的、可更新的、可更新的、可更新的、可更新的、可升级的、可升级的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可操作的、可转换的、可操作的、可转换的、可操作的、可操作的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换的、可转换

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
将门创投
4+阅读 · 2019年9月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年5月30日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
10+阅读 · 2021年3月30日
One-Shot Federated Learning
Arxiv
9+阅读 · 2019年3月5日
Federated Learning for Mobile Keyboard Prediction
Arxiv
4+阅读 · 2018年11月8日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关VIP内容
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
将门创投
4+阅读 · 2019年9月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员