网络修剪是解决大型语言模型(LLMs)部署和推理中巨大计算资源需求的有前景的方法。对于LLMs的修剪方法来说,无需重新训练是重要的。然而,几乎所有现有的LLMs无需重新训练的修剪方法都集中在非结构化修剪上,这需要特定硬件支持才能加速。在本文中,我们提出了一种新颖的针对LLMs的无需重新训练的结构化修剪框架,命名为FLAP(基于波动的自适应结构化修剪)。它通过有效减少存储和提高推理速度,对硬件友好。为了有效地对LLMs进行结构化修剪,我们强调了三个需高度关注的关键要素:制定结构化重要性指标、自适应搜索全局压缩模型和实施补偿机制以减轻性能损失。首先,FLAP基于波动修剪指标判断移除权重列时输出特征图是否容易恢复。然后它标准化重要性分数以自适应地确定全局压缩模型结构。最后,FLAP添加额外的偏置项使用基线值来恢复输出特征图。我们在各种语言基准上全面评估了我们的方法。在无需任何重新训练的情况下,我们的方法显著优于包括LLM-Pruner和Wanda在内的结构化修剪领域的最新方法。代码发布在https://github.com/CASIA-IVA-Lab/FLAP。

成为VIP会员查看完整内容
18

相关内容

【ICML2023】通过离散扩散建模实现高效和度引导的图生成
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
专知会员服务
12+阅读 · 2021年9月8日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
14+阅读 · 2021年6月26日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
54+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
16+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【ICML2023】通过离散扩散建模实现高效和度引导的图生成
【NeurIPS2022】基于结构聚类的自监督异构图预训练
专知会员服务
23+阅读 · 2022年10月20日
专知会员服务
12+阅读 · 2021年9月8日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
14+阅读 · 2021年6月26日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员