In this paper, we conduct extensive research on exploring the contribution of transformers to salient object detection, achieving both accurate and reliable saliency predictions. We first investigate transformers for accurate salient object detection with deterministic neural networks, and explain that the effective structure modeling and global context modeling abilities lead to its superior performance compared with the CNN based frameworks. Then, we design stochastic networks to evaluate the transformers' ability in reliable salient object detection. We observe that both CNN and transformer based frameworks suffer greatly from the over-confidence issue, where the models tend to generate wrong predictions with high confidence, leading to over-confident predictions or a poorly-calibrated model. To estimate the calibration degree of both CNN- and transformer-based frameworks for reliable saliency prediction, we introduce generative adversarial network (GAN) based models to identify the over-confident regions by sampling from the latent space. Specifically, we present the inferential generative adversarial network (iGAN). Different from the conventional GAN based framework, which defines the distribution of the latent variable as fixed standard normal distribution N(0,1), the proposed "iGAN" infers the latent variable by gradient-based Markov Chain Monte Carlo (MCMC), namely Langevin dynamics. We apply the proposed inferential generative adversarial network (iGAN) to both fully and weakly supervised salient object detection, and explain that iGAN within the transformer framework leads to both accurate and reliable salient object detection. The source code and experimental results are publicly available via our project page: https://github.com/fupiao1998/TrasformerSOD.


翻译:在本文中,我们进行了广泛的研究,探讨变压器对突出物体探测的贡献,同时实现准确和可靠的显著预测。我们首先调查变压器,以便通过确定性神经神经网络进行精确突出物体探测;我们首先调查变压器,以便用确定性神经神经网络网络进行精确的预测,并解释有效的结构建模和全球背景建模能力使其与CNN所依据的框架相比表现优异。然后,我们设计变压器网络,以评估变压器在可靠突出物体探测方面的能力。我们观察到,以CNNN和变压器为基础的框架都因过度信任问题而深受其害。在这种问题上,模型往往产生错误的预测,从而导致过分自信的预测,导致对目标的预测或有不完全精确的、有准确的变压的变压器模型。为了估计CN-和变压器基础框架的校准度,我们提出的G-变压式网络(我们提出的变压式G-变压的变压式G-变压式网络)和变压式的变压式G-变压式G-变压式的变压式G-变压式G-G-G-G-G-G-G-G-G-LV-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-G-L-L-G-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L-L

0
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2021年9月16日
专知会员服务
32+阅读 · 2021年6月12日
最新《Transformers模型》教程,64页ppt
专知会员服务
314+阅读 · 2020年11月26日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月19日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
13+阅读 · 2019年4月9日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员