参数高效微调(PEFT)有效地将预训练的视觉变换器适应于下游任务。然而,任务性能的优化往往以微调模型的泛化能力为代价。为了解决这一问题,我们从理论上将训练过程中较小的权重梯度范数与较大的数据集联系起来,进而改善模型的泛化能力。受此启发,我们提出降低梯度范数以增强泛化能力,并使微调模型与预训练模型对齐,以保留来自大规模预训练数据的知识。然而,简单的对齐并不能保证梯度减少,反而可能导致梯度爆炸,增加管理梯度的难度。为了解决这些问题,我们提出了PACE,将参数高效微调的泛化与一致性正则化相结合。我们通过乘法噪声扰动适配器学习到的特征,确保微调模型在不同扰动下对同一样本保持一致。理论分析表明,PACE不仅隐式地对梯度进行正则化以增强泛化能力,还隐式地对齐微调和预训练模型以保留知识。实验结果支持我们的理论。PACE在四个视觉适应任务中超越了现有的PEFT方法:VTAB-1k、FGVC、少量学习和领域适应。代码将发布在MaxwellYaoNi/PACE上。

成为VIP会员查看完整内容
0

相关内容

【NeurIPS2023】从视觉-语言基础模型中提取分布外鲁棒性
专知会员服务
18+阅读 · 2023年11月4日
【NeurIPS2023】基于语义对齐的潜空间翻译
专知会员服务
19+阅读 · 2023年11月2日
【CVPR2023】多模态表示学习中潜在模态结构的理解和构建
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
19+阅读 · 2020年12月11日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
378+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】从视觉-语言基础模型中提取分布外鲁棒性
专知会员服务
18+阅读 · 2023年11月4日
【NeurIPS2023】基于语义对齐的潜空间翻译
专知会员服务
19+阅读 · 2023年11月2日
【CVPR2023】多模态表示学习中潜在模态结构的理解和构建
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
23+阅读 · 2021年6月8日
专知会员服务
19+阅读 · 2020年12月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员