基础视觉-语言模型(如CLIP)在下游任务中展示了出色的泛化能力。然而,CLIP在适应特定任务时存在两个层次的失配问题,即任务失配和数据失配。虽然软提示调优在一定程度上缓解了任务失配,但数据失配仍然是一个挑战。为分析数据失配的影响,我们重新审视了CLIP的预训练和适应过程,并构建了一个结构化因果模型。我们发现,尽管期望精确捕捉下游任务的相关信息,但与任务无关的知识影响了预测结果,并阻碍了真实图像与预测类别之间关系的建模。由于任务无关的知识是不可观察的,我们利用前门调整并提出因果引导的语义解耦与分类方法(CDC)来减少任务无关知识的干扰。具体而言,我们对下游任务数据中包含的语义进行解耦,并基于每个语义执行分类。此外,我们采用Dempster-Shafer证据理论来评估由不同语义生成的每个预测的不确定性。在多种不同设置下进行的实验一致证明了CDC的有效性。

成为VIP会员查看完整内容
19

相关内容

【MIT博士论文】物理启发的生成式模型
专知会员服务
23+阅读 · 2024年9月6日
【ACL2024】大型语言模型的稀疏加速训练
专知会员服务
27+阅读 · 2024年6月4日
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
20+阅读 · 2024年3月30日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
25+阅读 · 2024年2月28日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
22+阅读 · 2023年10月21日
【IJCAI2021】复杂知识库问答研究: 方法、挑战与对策
专知会员服务
55+阅读 · 2021年5月27日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
论文浅尝 | 远程监督关系抽取的生成式对抗训练
开放知识图谱
17+阅读 · 2018年7月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
162+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
424+阅读 · 2023年3月31日
Arxiv
69+阅读 · 2023年3月26日
Arxiv
153+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【MIT博士论文】物理启发的生成式模型
专知会员服务
23+阅读 · 2024年9月6日
【ACL2024】大型语言模型的稀疏加速训练
专知会员服务
27+阅读 · 2024年6月4日
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
20+阅读 · 2024年3月30日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
25+阅读 · 2024年2月28日
【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
22+阅读 · 2023年10月21日
【IJCAI2021】复杂知识库问答研究: 方法、挑战与对策
专知会员服务
55+阅读 · 2021年5月27日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员