High-quality instance segmentation has shown emerging importance in computer vision. Without any refinement, DCT-Mask directly generates high-resolution masks by compressed vectors. To further refine masks obtained by compressed vectors, we propose for the first time a compressed vector based multi-stage refinement framework. However, the vanilla combination does not bring significant gains, because changes in some elements of the DCT vector will affect the prediction of the entire mask. Thus, we propose a simple and novel method named PatchDCT, which separates the mask decoded from a DCT vector into several patches and refines each patch by the designed classifier and regressor. Specifically, the classifier is used to distinguish mixed patches from all patches, and to correct previously mispredicted foreground and background patches. In contrast, the regressor is used for DCT vector prediction of mixed patches, further refining the segmentation quality at boundary locations. Experiments on COCO show that our method achieves 2.0%, 3.2%, 4.5% AP and 3.4%, 5.3%, 7.0% Boundary AP improvements over Mask-RCNN on COCO, LVIS, and Cityscapes, respectively. It also surpasses DCT-Mask by 0.7%, 1.1%, 1.3% AP and 0.9%, 1.7%, 4.2% Boundary AP on COCO, LVIS and Cityscapes. Besides, the performance of PatchDCT is also competitive with other state-of-the-art methods.


翻译:在计算机视野中,高品质的试样分解显示在计算机视野中已显露出重要性。 DCT- Mask 直接通过压缩矢量生成高分辨率面罩,而没有经过任何改进,DCT-Mask 直接生成压缩矢量获得的高分辨率面罩。为了进一步改进压缩矢量获得的面罩,我们首次提议了一个基于压缩矢量的多阶段完善框架。然而,香草组合并没有带来重大收益,因为DCT矢量的某些元素的变化将影响整个遮罩的预测。因此,我们提议了一个简单和新颖的方法,即PatchDCT,将DCT矢量从DCT矢量解码分为几个补丁,由设计分类器和递归者改进每个补补。具体来说,为了进一步细化压缩矢量,我们使用分类器来区分所有压缩矢量的混合面罩面罩,并纠正先前错误的地表和背景补补丁。相比之下,对DCT矢量的矢量预测将使用递归为DCT的矢量值,对边界值为2.0%、3.2%、4.5 AP和3.4%、5.0% AP-Mas-NNNE、LVIS-RBS-BS-BS-BS-BS-BS-BS、1.-BS-BS、1.BS、1.%L-BS-BS-BS-BS-R-R-BS-BS-BS-BS-BS-BS-R-R-BS-BS-BS-BS-BS-BS-BS-BS-BS-C-BS-BS-BS-BS-BS-BS-C-BS-BS-R-C-R-BS-C-C-B-B-B-B-R-R-R-R-R-R-R-R-B-RV-BS-BS-C-RV-V-C-V-R-R-R-R-R-R-R-R-R-R-R-R-V-V-R-R-R-R-R-R-R-R-R-R-R-R-R-R-R-R-R-

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
90+阅读 · 2019年10月16日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
CVPR 2019 | 重磅!34篇 CVPR2019 论文实现代码
AI研习社
11+阅读 · 2019年6月21日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年3月28日
Arxiv
0+阅读 · 2023年3月23日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员