低秩适应(LoRA)及其变体在减少大型Transformer网络的可训练参数数量和内存需求方面取得了显著成果,同时保持了微调性能。然而,权重更新的低秩性质本质上限制了微调模型的表示能力,可能会影响复杂任务的表现。这引出了一个关键问题:当观察到LoRA与标准微调之间的性能差距时,这个差距是由于可训练参数数量减少,还是由于秩缺陷?本文旨在通过引入RandLoRA这一参数高效的方法来回答这个问题,该方法使用低秩、非可训练的随机矩阵的线性组合进行全秩更新。我们的方案通过将优化限制在作用于固定随机矩阵的对角缩放矩阵上,从而限制了可训练参数的数量。这使得我们能够在保持训练过程中的参数和内存效率的同时,有效克服低秩限制。通过在视觉、语言和视觉-语言基准上进行广泛的实验,我们系统地评估了LoRA和现有随机基方法的局限性。我们的研究发现,单独应用于视觉和语言任务时,全秩更新均表现出优势;尤其是在视觉-语言任务中,RandLoRA显著缩小——甚至有时消除——标准微调与LoRA之间的性能差距,证明了其有效性。

成为VIP会员查看完整内容
2

相关内容

【AAAI2025】用于高保真3D重建的多视图条件扩散模型
专知会员服务
19+阅读 · 2024年12月12日
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
19+阅读 · 2024年5月28日
【ICLR2024】MathVista:视觉背景下基础模型的数学推理评估
专知会员服务
35+阅读 · 2024年1月20日
【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
15+阅读 · 2023年11月18日
【ICCV2023】StyleDiffusion:基于扩散模型的可控解缠风格迁移
【ICML2022】在线决策Transformer
专知会员服务
34+阅读 · 2022年7月27日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
20+阅读 · 2020年11月6日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【NeurIPS2019】图变换网络:Graph Transformer Network
回归预测&时间序列预测
GBASE数据工程部数据团队
43+阅读 · 2017年5月17日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Generalized Out-of-Distribution Detection: A Survey
Arxiv
15+阅读 · 2021年10月21日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
VIP会员
相关VIP内容
【AAAI2025】用于高保真3D重建的多视图条件扩散模型
专知会员服务
19+阅读 · 2024年12月12日
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
19+阅读 · 2024年5月28日
【ICLR2024】MathVista:视觉背景下基础模型的数学推理评估
专知会员服务
35+阅读 · 2024年1月20日
【NeurIPS2023】稀疏保留的差分隐私大型嵌入模型训练
专知会员服务
15+阅读 · 2023年11月18日
【ICCV2023】StyleDiffusion:基于扩散模型的可控解缠风格迁移
【ICML2022】在线决策Transformer
专知会员服务
34+阅读 · 2022年7月27日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
20+阅读 · 2020年11月6日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员