我们提出了 ProLoRA,一种实现文本到图像扩散模型中参数高效微调的零样本适应的方法。ProLoRA 能够在无需额外训练数据的情况下,将预训练的低秩调整(例如 LoRA)从一个源模型迁移到目标模型。这克服了传统方法的局限性:传统微调方式在更换基础模型时通常需要重新训练,而数据获取常常是难点。 ProLoRA 的关键在于:将源模型的调整内容投影到目标模型的权重空间,利用子空间与零空间的相似性,并有选择地应用于对齐的网络层。在多个主流文本生成图像模型上的评估表明,ProLoRA 能够成功迁移知识,在无需重新训练的前提下,实现与微调后模型相当的性能表现

成为VIP会员查看完整内容
1

相关内容

【IJCAI2025】用于大型语言模型的块循环适配器
专知会员服务
9+阅读 · 5月2日
【ICLR2025】大型语言模型的动态低秩稀疏适应
专知会员服务
12+阅读 · 2月21日
【NeurIPS2024】通过方差减少实现零样本模型的稳健微调
专知会员服务
18+阅读 · 2024年11月12日
【NeurIPS2024】用于时间序列预测的检索增强扩散模型
专知会员服务
23+阅读 · 2024年10月25日
【AAAI2024】基于扩散语言模型的文本引导分子生成
专知会员服务
28+阅读 · 2024年2月21日
【NeurIPS2021】基于关联与识别的少样本目标检测
专知会员服务
23+阅读 · 2021年11月29日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
24+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员