Parameter-efficient fine-tuning (PEFT) adapts large pre-trained models by updating only a small subset of parameters. Recently, Representation Fine-Tuning (ReFT) has emerged as an effective alternative. ReFT shifts the fine-tuning paradigm from updating model weights to directly manipulating hidden representations that capture rich semantic information, and outperforms state-of-the-art PEFTs in standalone settings. However, its application in Federated Learning (FL) remains challenging due to heterogeneity in clients' data distributions, model capacities, and computational resources. To address these challenges, we introduce Federated Representation Fine-Tuning (FedReFT), a novel approach to fine-tune clients' hidden representations. FedReFT applies sparse intervention layers to steer hidden representations directly, offering a lightweight and semantically rich fine-tuning alternative ideal for edge devices. However, representation-level updates are especially vulnerable to aggregation mismatch under different task heterogeneity, where naive averaging can corrupt semantic alignment. To mitigate this issue, we propose All-But-Me (ABM) aggregation, where each client receives the aggregated updates of others and partially incorporates them, enabling stable and personalized learning by balancing local focus with global knowledge. We further design an adaptive update strategy inspired by Test-Time Computing (TTC) to balance local and global contributions under heterogeneous conditions. FedReFT achieves state-of-the-art performance on commonsense reasoning, arithmetic reasoning, and GLUE benchmarks, while delivering 1-49 times higher parameter efficiency compared to leading LoRA-based methods.


翻译:参数高效微调(PEFT)通过仅更新预训练大模型中的一小部分参数来实现模型适配。最近,表示微调(ReFT)作为一种有效的替代方案出现。ReFT将微调范式从更新模型权重转变为直接操控蕴含丰富语义信息的隐藏表示,并在独立设置中超越了最先进的PEFT方法。然而,由于客户端数据分布、模型能力和计算资源的异质性,其在联邦学习(FL)中的应用仍面临挑战。为应对这些挑战,我们提出了联邦表示微调(FedReFT),一种新颖的客户端隐藏表示微调方法。FedReFT应用稀疏干预层直接引导隐藏表示,为边缘设备提供了一种轻量且语义丰富的微调替代方案。然而,表示层更新尤其容易在不同任务异质性下出现聚合失配问题,简单的平均聚合可能破坏语义对齐。为缓解此问题,我们提出了“除我之外”(ABM)聚合机制,其中每个客户端接收其他客户端的聚合更新并部分地将其纳入自身,通过平衡局部专注与全局知识,实现稳定且个性化的学习。我们进一步设计了一种受测试时计算(TTC)启发的自适应更新策略,以在异质条件下平衡局部与全局贡献。FedReFT在常识推理、算术推理和GLUE基准测试中取得了最先进的性能,同时相比基于LoRA的领先方法实现了1-49倍的参数效率提升。

0
下载
关闭预览

相关内容

【CVPR2024】ViewDiff: 3D一致的图像生成与文本到图像模型
专知会员服务
30+阅读 · 2024年3月10日
【AAAI2024】LAMM: 多模态提示学习的标签对齐
专知会员服务
41+阅读 · 2023年12月14日
专知会员服务
30+阅读 · 2020年9月18日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员