最近的工作探索了通过更新少数参数来自适应预训练视觉transformer (ViT)的潜力,以提高存储效率,称为参数高效迁移学习(PETL)。目前的PETL方法表明,通过调整0.5%的参数,ViT可以适应下游任务,性能甚至比完全微调更好。本文旨在进一步提升PETL的效率,以满足现实应用中的极端存储约束。为此,提出一种张量-分解框架来存储权重增量,将每个ViT的权重张量化为单个3D张量,并将其增量分解为轻量化因子。在微调过程中,只需要更新和存储因子,称为FactorTuning (FacT)。在VTAB-1K基准上,所提出方法的表现与最先进的PETL方法NOAH相当,同时参数效率提高了5倍。本文还提出了一个小版本,只使用8K (ViT参数的0.01%)可训练参数,但性能优于完全微调和许多其他PETL方法,如VPT和BitFit。在少样本设置中,FacT也使用最少的参数击败了所有PETL基线,证明了它在低数据环境下的强大能力。

https://www.zhuanzhi.ai/paper/28a49e1b68f4e738621001090150cd44

成为VIP会员查看完整内容
16

相关内容

【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【AAAI2022】领域自适应的主动学习:一种基于能量的方法
专知会员服务
43+阅读 · 2021年12月6日
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
13+阅读 · 2021年12月1日
专知会员服务
64+阅读 · 2021年7月25日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
无需训练,自动扩展的视觉Transformer来了
机器之心
0+阅读 · 2022年4月10日
视觉Prompt来了,效果超越微调!
夕小瑶的卖萌屋
2+阅读 · 2022年3月26日
ICML 2021 | AlphaNet:基于α-散度的超网络训练方法
PaperWeekly
0+阅读 · 2021年12月28日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
38+阅读 · 2021年8月31日
VIP会员
相关VIP内容
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
19+阅读 · 2023年1月18日
【AAAI2023】图序注意力网络
专知会员服务
45+阅读 · 2022年11月24日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
【AAAI2022】基于双流更新的视觉Transformer动态加速方法
专知会员服务
23+阅读 · 2021年12月11日
【AAAI2022】领域自适应的主动学习:一种基于能量的方法
专知会员服务
43+阅读 · 2021年12月6日
【NeurIPS 2021】寻找视觉Transformer的搜索空间
专知会员服务
13+阅读 · 2021年12月1日
专知会员服务
64+阅读 · 2021年7月25日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员