The growing use of large pre-trained models in edge computing has made model inference on mobile clients both feasible and popular. Yet these devices remain vulnerable to adversarial attacks, threatening model robustness and security. Federated adversarial training (FAT) offers a promising solution by enhancing robustness while preserving client privacy. However, FAT often yields a generalized global model that struggles with heterogeneous client data, leading to limited personalization and significant communication overhead. In this paper, we propose \textit{Lorica}, a personalized synergistic adversarial training framework that delivers customized defense models through a two-phase process. In Phase 1, \textit{Lorica} applies LoRA-FA for local adversarial fine-tuning, enabling personalized robustness while reducing communication by uploading only LoRA-FA parameters. In Phase 2, a forward-gating selection strategy improves benign accuracy, further refining the personalized model. This yields tailored defense models that effectively balance robustness and accuracy. Extensive experiments on benchmark datasets demonstrate that \textit{Lorica} can achieve up to 68$\times$ improvements in communication efficiency compared to state-of-the-art algorithms, while achieving up to 29.9\% and 52.2\% enhancements in adversarial robustness and benign accuracy, respectively.


翻译:大型预训练模型在边缘计算中的日益广泛应用,使得移动客户端上的模型推断既可行又普及。然而,这些设备仍然容易受到对抗攻击的威胁,从而危及模型的鲁棒性和安全性。联邦对抗训练(FAT)通过增强鲁棒性同时保护客户端隐私,提供了一种有前景的解决方案。然而,FAT通常会产生一个泛化的全局模型,难以应对异构的客户端数据,导致个性化程度有限且通信开销显著。本文提出 \\textit{Lorica},一种个性化协同对抗训练框架,通过两阶段过程提供定制化的防御模型。在第一阶段,\\textit{Lorica} 应用 LoRA-FA 进行本地对抗微调,在实现个性化鲁棒性的同时,通过仅上传 LoRA-FA 参数来减少通信开销。在第二阶段,前向门控选择策略提升了良性准确率,进一步优化了个性化模型。这产生了能够有效平衡鲁棒性与准确率的定制防御模型。在基准数据集上的大量实验表明,与最先进的算法相比,\\textit{Lorica} 在通信效率上可实现高达 68$\\times$ 的提升,同时在对抗鲁棒性和良性准确率上分别实现了高达 29.9\\% 和 52.2\\% 的增强。

0
下载
关闭预览

相关内容

【AAAI2021】“可瘦身”的生成式对抗网络
专知会员服务
13+阅读 · 2020年12月12日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员