随着大型嵌入模型在推荐系统和语言应用中的使用日益增加,用户数据隐私的担忧也随之上升。DP-SGD(差分隐私随机梯度下降)作为一种训练算法,将差分隐私与随机梯度下降相结合,已成为在不过多损害模型准确性的前提下保护用户隐私的主力。然而,如果直接应用DP-SGD到嵌入模型,可能会破坏梯度的稀疏性,导致训练效率降低。为了解决这个问题,我们提出了两种新算法,DP-FEST和DP-AdaFEST,它们在大型嵌入模型的私有训练过程中保持了梯度的稀疏性。在基准真实世界数据集上,我们的算法实现了梯度大小显著减少(106倍),同时保持了可比较的准确性水平。

成为VIP会员查看完整内容
13

相关内容

【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
20+阅读 · 2023年10月21日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
27+阅读 · 2023年8月28日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
21+阅读 · 2023年7月23日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
38+阅读 · 2021年5月16日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
回归预测&时间序列预测
GBASE数据工程部数据团队
43+阅读 · 2017年5月17日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
67+阅读 · 2022年9月7日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关VIP内容
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
20+阅读 · 2023年10月21日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
27+阅读 · 2023年8月28日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
21+阅读 · 2023年7月23日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
24+阅读 · 2023年6月1日
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
专知会员服务
12+阅读 · 2021年10月11日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
38+阅读 · 2021年5月16日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员