Data-protection regulations such as the GDPR grant every participant in a federated system a right to be forgotten. Federated unlearning has therefore emerged as a research frontier, aiming to remove a specific party's contribution from the learned model while preserving the utility of the remaining parties. However, most unlearning techniques focus on Horizontal Federated Learning (HFL), where data are partitioned by samples. In contrast, Vertical Federated Learning (VFL) allows organizations that possess complementary feature spaces to train a joint model without sharing raw data. The resulting feature-partitioned architecture renders HFL-oriented unlearning methods ineffective. In this paper, we propose REMISVFU, a plug-and-play representation misdirection framework that enables fast, client-level unlearning in splitVFL systems. When a deletion request arrives, the forgetting party collapses its encoder output to a randomly sampled anchor on the unit sphere, severing the statistical link between its features and the global model. To maintain utility for the remaining parties, the server jointly optimizes a retention loss and a forgetting loss, aligning their gradients via orthogonal projection to eliminate destructive interference. Evaluations on public benchmarks show that REMISVFU suppresses back-door attack success to the natural class-prior level and sacrifices only about 2.5% points of clean accuracy, outperforming state-of-the-art baselines.


翻译:以《通用数据保护条例》(GDPR)为代表的数据保护法规赋予联邦系统中每个参与者被遗忘的权利。因此,联邦遗忘已成为研究前沿,其目标是在保持其他参与方模型效用的同时,从已学习模型中移除特定参与方的贡献。然而,现有遗忘技术主要集中于横向联邦学习(HFL),即数据按样本划分。相比之下,纵向联邦学习(VFL)允许拥有互补特征空间的组织在不共享原始数据的情况下联合训练模型。这种特征划分的架构使得面向HFL的遗忘方法失效。本文提出REMISVFU,一种即插即用的表示误导框架,可在分割式VFL系统中实现快速的客户端级遗忘。当收到删除请求时,待遗忘方将其编码器输出坍缩至单位球面上随机采样的锚点,从而切断其特征与全局模型之间的统计关联。为维持其他参与方的效用,服务器联合优化保留损失与遗忘损失,通过正交投影对齐其梯度以消除破坏性干扰。在公开基准测试上的评估表明,REMISVFU能将后门攻击成功率抑制至自然类先验水平,且仅损失约2.5个百分点的清洁准确率,性能优于现有先进基线方法。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员