视觉提示调优(VPT)是一种有效的调整方法,用于将预训练的Vision Transformers (ViTs)适应到下游任务。它利用额外的可学习的标记,称为提示,来引导冻结的预训练的ViTs。尽管VPT已经证明了其在监督视觉变换器中的应用性,但在自我监督的视觉变换器中常常表现不佳。通过实证观察,我们推断出VPT的有效性在很大程度上取决于提示标记与之交互的ViT块。具体来说,当提示标记插入到后面的块而不是第一个块时,VPT在图像分类任务中的性能有所提高,例如MAE和MoCo v3。这些观察表明,存在一个插入提示标记的块的最优位置。不幸的是,确定每个自我监督ViT中提示的最佳块以适应多样的未来场景是一个成本高昂的过程。为了缓解这个问题,我们提出了一种简单而有效的方法,该方法学习每个ViT块的一个门,以调整其对提示标记的干预。通过我们的方法,提示标记被选择性地受到需要进行任务适应的块的影响。我们的方法在FGVC和VTAB图像分类以及ADE20K语义分割中优于VPT变体。代码可在

https://github.com/ryongithub/GatedPromptTuning 获取。

成为VIP会员查看完整内容
34

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】POUF:面向提示的大型预训练模型无监督微调
专知会员服务
38+阅读 · 2023年5月18日
ICML2023 | 轻量级视觉Transformer(ViT)的预训练实践手册
专知会员服务
39+阅读 · 2023年5月10日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
32+阅读 · 2022年3月13日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
31+阅读 · 2022年3月12日
使用PyTorch进行小样本学习的图像分类
极市平台
1+阅读 · 2022年11月4日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Conditional Prompt Learning for Vision-Language Models
Arxiv
13+阅读 · 2022年3月10日
Arxiv
58+阅读 · 2021年11月15日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
23+阅读 · 2020年9月16日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
【ICML2023】POUF:面向提示的大型预训练模型无监督微调
专知会员服务
38+阅读 · 2023年5月18日
ICML2023 | 轻量级视觉Transformer(ViT)的预训练实践手册
专知会员服务
39+阅读 · 2023年5月10日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【CVPR2022】提示分布学习
专知会员服务
29+阅读 · 2022年5月17日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
32+阅读 · 2022年3月13日
【CVPR 2022】视觉提示调整(VPT),Vision Prompt Tuning
专知会员服务
31+阅读 · 2022年3月12日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
微信扫码咨询专知VIP会员