Unsupervised domain adaptation (UDA) aims to adapt a model of the labeled source domain to an unlabeled target domain. Although the domain shifts may exist in various dimensions such as appearance, textures, etc, the contextual dependency, which is generally shared across different domains, is neglected by recent methods. In this paper, we utilize this important clue as explicit prior knowledge and propose end-to-end Context-Aware Mixup (CAMix) for domain adaptive semantic segmentation. Firstly, we design a contextual mask generation strategy by leveraging accumulated spatial distributions and contextual relationships. The generated contextual mask is critical in this work and will guide the domain mixup. In addition, we define the significance mask to indicate where the pixels are credible. To alleviate the over-alignment (e.g., early performance degradation), the source and target significance masks are mixed based on the contextual mask into the mixed significance mask, and we introduce a significance-reweighted consistency loss on it. Experimental results show that the proposed method outperforms the state-of-the-art methods by a large margin on two widely-used domain adaptation benchmarks, i.e., GTAV $\rightarrow $ Cityscapes and SYNTHIA $\rightarrow $ Cityscapes.


翻译:不受监督的域适应(UDA) 旨在将标签源域的模型调整为未标记的目标域。虽然域变可能存在于外观、纹理等不同层面,但最近一些方法忽视了在不同领域普遍共享的背景依赖性。在本文件中,我们利用这一重要线索作为明确的先前知识,并提议对域适应性语义分隔法(CAMix)进行端到端的内存和元件混合。首先,我们通过利用累积的空间分布和背景关系,设计了背景遮罩生成战略。生成的背景遮罩对这项工作至关重要,并将指导域混。此外,我们界定了表明像素可信之处的意义遮罩。为了减轻过度连接(如早期性能退化),源和目标掩罩混在一起,其依据是背景遮罩混在一起的意义,我们为此引入了一种重要和加权的一致性损失。实验结果显示,拟议方法在两个广泛使用的城市GTFG和美元域域基准上比重的GTGG, 美元。

1
下载
关闭预览

相关内容

强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员