尽管网络稀疏性在缓解大型语言模型(LLM)部署压力方面具有一定效能,但仍存在显著的性能下降问题。将低秩适应(LoRA)应用于微调稀疏LLM提供了一种直观的方法来应对这一困境,但其存在以下不足:1)训练后无法将LoRA权重集成到稀疏LLM中,2)在高稀疏比率下性能恢复不足。本文介绍了动态低秩稀疏适应(LoSA),一种新颖的方法,在统一框架内将低秩适应无缝地集成到LLM稀疏性中,从而提升稀疏LLM的性能,同时不增加推理延迟。特别地,LoSA在微调过程中基于对应的稀疏权重动态稀疏化LoRA结果,从而确保LoRA模块能够在训练后集成到稀疏LLM中。此外,LoSA利用表示互信息(RMI)作为指标来确定各层的重要性,从而在微调过程中有效地确定各层的稀疏率。基于此,LoSA根据层级重构误差的变化调整LoRA模块的秩,为每一层分配合适的微调量,以减少稠密LLM和稀疏LLM之间的输出差异。大量实验表明,LoSA可以在几小时内有效提升稀疏LLM的效能,而不会引入任何额外的推理负担。例如,LoSA将稀疏LLaMA-2-7B的困惑度降低了68.73%,并将零-shot准确率提高了16.32%,在CPU上实现了2.60倍的加速,在GPU上实现了2.23倍的加速,仅需在单个NVIDIA A100 80GB GPU上进行45分钟的微调。代码可在https://github.com/wzhuang-xmu/LoSA获取。

成为VIP会员查看完整内容
5

相关内容

【NeurIPS2024】用于缺失值数据集的可解释广义加性模型
专知会员服务
17+阅读 · 2024年12月7日
【ICML2024】双曲几何潜在扩散模型用于图生成
专知会员服务
42+阅读 · 2024年5月8日
【WWW2024】重新思考大规模图学习中的节点式传播
专知会员服务
23+阅读 · 2024年2月12日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
47+阅读 · 2023年10月13日
【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
32+阅读 · 2023年10月4日
【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
26+阅读 · 2023年4月26日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
21+阅读 · 2022年4月20日
专知会员服务
19+阅读 · 2020年9月11日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
431+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
【NeurIPS2024】用于缺失值数据集的可解释广义加性模型
专知会员服务
17+阅读 · 2024年12月7日
【ICML2024】双曲几何潜在扩散模型用于图生成
专知会员服务
42+阅读 · 2024年5月8日
【WWW2024】重新思考大规模图学习中的节点式传播
专知会员服务
23+阅读 · 2024年2月12日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
47+阅读 · 2023年10月13日
【NeurIPS2023】大型预训练模型的等变自适应
专知会员服务
32+阅读 · 2023年10月4日
【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
26+阅读 · 2023年4月26日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
21+阅读 · 2022年4月20日
专知会员服务
19+阅读 · 2020年9月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员