Pre-trained language models can be fine-tuned to solve diverse NLP tasks, including in few-shot settings. Thus fine-tuning allows the model to quickly pick up task-specific ``skills,'' but there has been limited study of where these newly-learnt skills reside inside the massive model. This paper introduces the term skill localization for this problem and proposes a solution. Given the downstream task and a model fine-tuned on that task, a simple optimization is used to identify a very small subset of parameters ($\sim0.01$% of model parameters) responsible for ($>95$%) of the model's performance, in the sense that grafting the fine-tuned values for just this tiny subset onto the pre-trained model gives performance almost as well as the fine-tuned model. While reminiscent of recent works on parameter-efficient fine-tuning, the novel aspects here are that: (i) No further re-training is needed on the subset (unlike, say, with lottery tickets). (ii) Notable improvements are seen over vanilla fine-tuning with respect to calibration of predictions in-distribution ($40$-$90$% error reduction) as well as the quality of predictions out-of-distribution (OOD). In models trained on multiple tasks, a stronger notion of skill localization is observed, where the sparse regions corresponding to different tasks are almost disjoint, and their overlap (when it happens) is a proxy for task similarity. Experiments suggest that localization via grafting can assist certain forms of continual learning.
翻译:训练前语言模型可以进行微调, 以解决不同的 NLP 任务, 包括几发的设置。 因此, 微调可以让模型快速地获取特定任务的“ 技能 ”, 但对于这些新学到的技能在大规模模型中的位置的研究有限。 本文介绍了这一问题的技能定位术语, 并提出了一个解决方案 。 鉴于下游任务和对任务进行微调的模型, 简单优化可以用来确定一个非常小的参数( 模型参数的0. 0.01 % ), 用于模型性能( >95 % ), 也就是说, 微调值的“ 技能 技能 ” 的精细化值将几乎和微调模型的精细化值一样, 。 虽然本文对最近关于参数高效的微调的工程进行了提醒, 但这里的新方面是:( 一) 不需要在子( 与彩票不同, 比如, 彩票, 某些细化( ) 的细化, 值得注意的细化, 相对于校准的精度, 校准的精度, 以近的精度 美元 方向, 的 的 的 的 的 的 的,, 等 的 递化 的 的 的 等 的 的 的, 是 的 的 的 的 的 的 的 的 的 的 的 的 递减 的 的 的 的 的 的 的 的 的 的 的 递增 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的