Current semantic segmentation methods focus only on mining "local" context, i.e., dependencies between pixels within individual images, by context-aggregation modules (e.g., dilated convolution, neural attention) or structure-aware optimization criteria (e.g., IoU-like loss). However, they ignore "global" context of the training data, i.e., rich semantic relations between pixels across different images. Inspired by the recent advance in unsupervised contrastive representation learning, we propose a pixel-wise contrastive framework for semantic segmentation in the fully supervised setting. The core idea is to enforce pixel embeddings belonging to a same semantic class to be more similar than embeddings from different classes. It raises a pixel-wise metric learning paradigm for semantic segmentation, by explicitly exploring the structures of labeled pixels, which are long ignored in the field. Our method can be effortlessly incorporated into existing segmentation frameworks without extra overhead during testing. We experimentally show that, with famous segmentation models (i.e., DeepLabV3, HRNet, OCR) and backbones (i.e., ResNet, HR-Net), our method brings consistent performance improvements across diverse datasets (i.e., Cityscapes, PASCAL-Context, COCO-Stuff). We expect this work will encourage our community to rethink the current de facto training paradigm in fully supervised semantic segmentation.


翻译:目前的语义分解方法仅注重于开采“ 本地” 环境, 即: 个人图像中像素之间的依赖性, 以背景分解模块( 如变异、 神经关注) 或结构分解优化标准( 例如 IoU 类似损失) 为基础。 但是, 它们忽略了培训数据中的“ 全球” 环境, 即不同图像中像素之间丰富的语义关系。 受最近未受监督的对比演示学习的进展的启发, 我们提议在完全监管的设置中, 以语义分解模式为对比框架。 核心理念是执行属于同一语义分解类的像素嵌入( 如变异、 神经分解标准) 。 然而, 它们为语义分解提供了一种具有比喻性的标准学习模式, 明确探索标签的像素结构, 在实地长期被忽略。 我们的方法可以完全不费力地融入现有的分解框架, 而无需在测试中额外转接。 我们实验性地展示了内部分解、 HR 、 格式 、 不断 、 内部分解 模型 、 、 内部 、 、 人权 系统 、 系统 、 、 系统 、 、 、 系统 、 、 系统 、 、 系统 、 、 系统 、 、 系统 、 、 、 将 、 、 、 、 、 系统 、 、 系统 、 、 系统 、 、 、 、 、 将 、 、 、 系统、 、 、 、 、 系统、 、 、 、 、 系统、 、 、 、 系统、 系统、 系统、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 系统、 系统、 、 、 系统、 、 、 、 、 、 、 系统、 、 、 、 、 、 系统、 、 、 、 、 、 、 、 系统、 、 、 、 、 系统、 、 、 、 、 、 、 、 、 、

0
下载
关闭预览

相关内容

专知会员服务
85+阅读 · 2021年1月7日
深度学习图像检索(CBIR): 十年之大综述
专知会员服务
46+阅读 · 2020年12月5日
PyTorch语义分割开源库semseg
极市平台
25+阅读 · 2019年6月6日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Learning Dynamic Routing for Semantic Segmentation
Arxiv
8+阅读 · 2020年3月23日
An Analysis of Object Embeddings for Image Retrieval
Arxiv
4+阅读 · 2019年5月28日
VIP会员
相关VIP内容
专知会员服务
85+阅读 · 2021年1月7日
深度学习图像检索(CBIR): 十年之大综述
专知会员服务
46+阅读 · 2020年12月5日
相关资讯
PyTorch语义分割开源库semseg
极市平台
25+阅读 · 2019年6月6日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Top
微信扫码咨询专知VIP会员