微调大语言模型(LLMs)通常既计算密集又占用大量内存。虽然诸如 QLoRA 和 DoRA 等参数高效微调方法能够减少可训练参数数量并降低内存使用,但它们并未降低计算成本,某些情况下甚至可能导致微调变慢。本文提出了 SparseLoRA,一种通过上下文稀疏性加速大语言模型微调的方法。我们引入了一种轻量级、无需训练的 SVD 稀疏性估计器,可动态选择用于损失和梯度计算的稀疏权重子集。此外,我们系统性地分析并解决了跨层、跨 token 以及跨训练步骤的敏感性问题。实验结果表明,SparseLoRA 在保持多种下游任务(包括常识与算术推理、代码生成和指令跟随)精度的同时,最多可减少 2.2 倍的计算开销,并实现 最多 1.6 倍的实际加速。

成为VIP会员查看完整内容
0

相关内容

【CVPR2025】CoLLM:面向组合图像检索的大语言模型
【NeurIPS2024】TableRAG:基于语言模型的百万标记表格理解
专知会员服务
37+阅读 · 2024年10月8日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
20+阅读 · 2022年7月9日
专知会员服务
22+阅读 · 2021年10月8日
专知会员服务
17+阅读 · 2021年9月17日
专知会员服务
22+阅读 · 2021年2月6日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
468+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
68+阅读 · 2022年9月7日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
VIP会员
相关VIP内容
【CVPR2025】CoLLM:面向组合图像检索的大语言模型
【NeurIPS2024】TableRAG:基于语言模型的百万标记表格理解
专知会员服务
37+阅读 · 2024年10月8日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
20+阅读 · 2022年7月9日
专知会员服务
22+阅读 · 2021年10月8日
专知会员服务
17+阅读 · 2021年9月17日
专知会员服务
22+阅读 · 2021年2月6日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员