Video salient object detection (VSOD) is an important task in many vision applications. Reliable VSOD requires to simultaneously exploit the information from both the spatial domain and the temporal domain. Most of the existing algorithms merely utilize simple fusion strategies, such as addition and concatenation, to merge the information from different domains. Despite their simplicity, such fusion strategies may introduce feature redundancy, and also fail to fully exploit the relationship between multi-level features extracted from both spatial and temporal domains. In this paper, we suggest an adaptive local-global refinement framework for VSOD. Different from previous approaches, we propose a local refinement architecture and a global one to refine the simply fused features with different scopes, which can fully explore the local dependence and the global dependence of multi-level features. In addition, to emphasize the effective information and suppress the useless one, an adaptive weighting mechanism is designed based on graph convolutional neural network (GCN). We show that our weighting methodology can further exploit the feature correlations, thus driving the network to learn more discriminative feature representation. Extensive experimental results on public video datasets demonstrate the superiority of our method over the existing ones.


翻译:可靠的 VSOD 要求同时利用空间领域和时间领域的信息。 多数现有的算法只是利用简单的聚合战略,例如添加和连接,将不同领域的信息合并起来。 尽管这些合并战略简单,但这种合并战略可能带来特征冗余,而且未能充分利用从空间和时间领域提取的多层次特征之间的关系。 在本文中,我们建议为VSOD 建立一个适应性地方-全球改进框架。与以往不同的做法不同,我们提议一个地方改进结构和一个全球改进框架,以完善与不同范围相融合的简单组合特征,这可以充分探索多层次特征对当地的依赖和全球依赖性。此外,为了强调有效信息和抑制无用的特征,一个适应性加权机制是建立在图象卷发神经网络(GCN)基础上的。我们表明,我们的加权方法可以进一步利用特征相关性,从而推动网络学习更具有歧视性的特征代表。关于公共视频数据集的广泛实验结果显示我们的方法优于现有方法的优越性。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
109+阅读 · 2020年3月12日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月30日
Arxiv
9+阅读 · 2021年3月3日
Arxiv
7+阅读 · 2018年12月5日
Arxiv
5+阅读 · 2018年5月16日
Arxiv
5+阅读 · 2018年4月17日
VIP会员
相关VIP内容
专知会员服务
109+阅读 · 2020年3月12日
相关论文
Top
微信扫码咨询专知VIP会员