测试时提示调优增强了视觉-语言模型的零-shot泛化能力,但在推理过程中往往忽视了测试样本之间的相关性。在线测试时提示调优提供了一种简单的方式来利用前一个测试样本中的信息,尽管由于错误积累,可能会面临提示崩溃的风险。为了增强测试时提示调优,我们提出了DynaPrompt(动态测试时提示调优),在减少错误积累的同时,利用相关的数据分布信息。DynaPrompt基于在线提示缓冲区,自适应地选择和优化每个测试样本的相关提示。具体来说,我们引入了一种基于两个指标的动态提示选择策略:预测熵和概率差异。对于未见过的测试数据,我们开发了动态提示附加方法,允许缓冲区附加新的提示并删除不活跃的提示。通过这种方式,提示可以优化以充分利用特定测试数据中的有益信息,同时缓解错误积累问题。我们在14个数据集上的实验结果验证了动态测试时提示调优的有效性。

成为VIP会员查看完整内容
0

相关内容

【CVPR2024】SHiNe:用于开放词汇目标检测的语义层次枢纽
专知会员服务
14+阅读 · 2024年5月18日
【NeurIPS2023】基于语义对齐的潜空间翻译
专知会员服务
21+阅读 · 2023年11月2日
【KDD2023】半监督图不平衡回归
专知会员服务
26+阅读 · 2023年5月24日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
37+阅读 · 2022年7月11日
【CVPR2022】提示分布学习
专知会员服务
31+阅读 · 2022年5月17日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
15+阅读 · 2021年11月14日
专知会员服务
22+阅读 · 2021年5月27日
【ICML2020】对比多视角表示学习
专知会员服务
53+阅读 · 2020年6月28日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
20+阅读 · 2021年10月25日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
71+阅读 · 2023年3月26日
Arxiv
155+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【CVPR2024】SHiNe:用于开放词汇目标检测的语义层次枢纽
专知会员服务
14+阅读 · 2024年5月18日
【NeurIPS2023】基于语义对齐的潜空间翻译
专知会员服务
21+阅读 · 2023年11月2日
【KDD2023】半监督图不平衡回归
专知会员服务
26+阅读 · 2023年5月24日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
37+阅读 · 2022年7月11日
【CVPR2022】提示分布学习
专知会员服务
31+阅读 · 2022年5月17日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
15+阅读 · 2021年11月14日
专知会员服务
22+阅读 · 2021年5月27日
【ICML2020】对比多视角表示学习
专知会员服务
53+阅读 · 2020年6月28日
相关资讯
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
20+阅读 · 2021年10月25日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员