论文题目:Counterfactual VQA: A Cause-Effect Look at Language Bias

作者:牛玉磊,汤凯华,张含望,卢志武,华先胜,文继荣

论文概述:近期研究发现,视觉问答模型在训练过程中会倾向于探索数据中的语言偏差,并依赖语言偏差进行推理和作答。这一倾向使得视觉问答模型未能充分地从视觉和语言两个模态中学习多模态知识,进而做出错误的回答。本文研究如何将视觉问答任务中的语言偏差进行捕获并去除。本文从因果推理的视角出发,提出了一种全新的基于反事实推断的视觉问答框架。反事实推断框架将语言偏差建模为问题对答案的直接因果效应,并通过从总体因果效应中减去语言的直接效应的方式去除语言偏差。实验证明反事实推断框架能够有效地克服语言偏差的影响,并具有良好的泛化性和鲁棒性。此外,本文从因果推理的角度为部分相关工作提供了理论解释。

https://www.zhuanzhi.ai/paper/f473e5b1a4c67df978867288e72d73f6

成为VIP会员查看完整内容
26

相关内容

【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
19+阅读 · 2021年3月2日
专知会员服务
44+阅读 · 2021年1月31日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
论文浅尝 | 动态词嵌入
开放知识图谱
3+阅读 · 2018年4月19日
NIPS 2017论文解读 | 基于对比学习的Image Captioning
PaperWeekly
6+阅读 · 2018年2月28日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
5+阅读 · 2018年3月16日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
相关VIP内容
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
53+阅读 · 2021年3月31日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
【CVPR2021】跨模态检索的概率嵌入
专知会员服务
19+阅读 · 2021年3月2日
专知会员服务
44+阅读 · 2021年1月31日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
相关论文
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
5+阅读 · 2018年3月16日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
9+阅读 · 2016年10月27日
微信扫码咨询专知VIP会员