Large Language Models (LLMs) demonstrate impressive performance across natural language tasks but incur substantial computational and storage costs due to their scale. Post-training structured pruning offers an efficient solution. However, when few-shot calibration sets fail to adequately reflect the pretraining data distribution, existing methods exhibit limited generalization to downstream tasks. To address this issue, we propose Function-Aware Neuron Grouping (FANG), a post-training pruning framework that alleviates calibration bias by identifying and preserving neurons critical to specific function. FANG groups neurons with similar function based on the type of semantic context they process and prunes each group independently. During importance estimation within each group, tokens that strongly correlate with the functional role of the neuron group are given higher weighting. Additionally, FANG also preserves neurons that contribute across multiple context types. To achieve a better trade-off between sparsity and performance, it allocates sparsity to each block adaptively based on its functional complexity. Experiments show that FANG improves downstream accuracy while preserving language modeling performance. It achieves the state-of-the-art (SOTA) results when combined with FLAP and OBC, two representative pruning methods. Specifically, FANG outperforms FLAP and OBC by 1.5%--8.5% in average accuracy under 30% and 40% sparsity.


翻译:大型语言模型(LLM)在自然语言任务中展现出卓越的性能,但其庞大的规模带来了巨大的计算和存储开销。训练后结构化剪枝提供了一种高效的解决方案。然而,当少样本校准集未能充分反映预训练数据分布时,现有方法在下游任务上表现出有限的泛化能力。为解决这一问题,我们提出了功能感知神经元分组(FANG),这是一种训练后剪枝框架,通过识别并保留对特定功能至关重要的神经元来缓解校准偏差。FANG根据神经元处理的语义上下文类型,将具有相似功能的神经元分组,并对每个组进行独立剪枝。在每个组内进行重要性评估时,与神经元组功能角色强相关的词元被赋予更高的权重。此外,FANG还保留了在多种上下文类型中均有贡献的神经元。为了在稀疏性与性能之间实现更好的权衡,FANG根据每个模块的功能复杂性自适应地分配稀疏度。实验表明,FANG在保持语言建模性能的同时,提高了下游任务的准确率。当与两种代表性剪枝方法FLAP和OBC结合时,FANG取得了最先进(SOTA)的结果。具体而言,在30%和40%的稀疏度下,FANG的平均准确率分别比FLAP和OBC高出1.5%至8.5%。

0
下载
关闭预览

相关内容

AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员