在测试时使用预训练的视觉-语言模型进行适应性调整已经吸引了越来越多的关注,以解决测试时的分布偏移问题。尽管之前的研究已经取得了非常有希望的表现,但它们涉及到的计算量非常大,这与测试时间的适应性调整严重不符。我们设计了TDA,一个无需训练的动态适配器,使视觉-语言模型能够有效且高效地进行测试时间的适应性调整。TDA利用轻量级的键-值缓存,维护一个动态队列,队列中的值为少量样本的伪标签,对应的测试样本特征作为键。利用键-值缓存,TDA允许通过逐步精炼伪标签来逐渐适应测试数据,这种方式超级高效,不需要任何反向传播。此外,我们引入了负伪标签,通过为某些负类分配伪标签来减轻伪标签噪声的不利影响,当模型对其伪标签预测不确定时采用。在两个基准测试上的广泛实验表明,与最先进的方法相比,TDA展示出了更高的有效性和效率。代码已在https://kdiaaa.github.io/tda/ 发布。

成为VIP会员查看完整内容
18

相关内容

【ICML2023】通过离散扩散建模实现高效和度引导的图生成
【NeurIPS 2021】基于潜在空间能量模型的可控和组分生成
专知会员服务
15+阅读 · 2021年10月23日
专知会员服务
18+阅读 · 2021年9月13日
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员