Unsupervised domain adaptation (UDA) for semantic segmentation aims to adapt a segmentation model trained on the labeled source domain to the unlabeled target domain. Existing methods try to learn domain invariant features while suffering from large domain gaps that make it difficult to correctly align discrepant features, especially in the initial training phase. To address this issue, we propose a novel Dual Soft-Paste (DSP) method in this paper. Specifically, DSP selects some classes from a source domain image using a long-tail class first sampling strategy and softly pastes the corresponding image patch on both the source and target training images with a fusion weight. Technically, we adopt the mean teacher framework for domain adaptation, where the pasted source and target images go through the student network while the original target image goes through the teacher network. Output-level alignment is carried out by aligning the probability maps of the target fused image from both networks using a weighted cross-entropy loss. In addition, feature-level alignment is carried out by aligning the feature maps of the source and target images from student network using a weighted maximum mean discrepancy loss. DSP facilitates the model learning domain-invariant features from the intermediate domains, leading to faster convergence and better performance. Experiments on two challenging benchmarks demonstrate the superiority of DSP over state-of-the-art methods. Code is available at \url{https://github.com/GaoLii/DSP}.


翻译:用于语义部分的不受监督的域适应(UDA) 用于语义部分,目的是将一个在标签源域内受过培训的区块模型(UDA) 调整到未贴标签的目标域域。 现有方法试图学习域域差异特性,但存在巨大的域差距,使得难以正确统一差异性特征,特别是在初始培训阶段。 为解决这一问题,我们提议了一个新的双软-帕斯特(DSP)方法。 具体地说, DSP使用长尾类第一取样战略从源域图中选择了某些类别,并轻轻地将源和目标培训图像上的对应图像补丁贴贴上混合重量。 技术上,我们采用了用于域适应的中度教师框架,在学生网络中,过去源和目标图像通过学生网络,而原始目标图像则通过教师网络。 输出级别的调整是通过对两个网络的目标组合图像的概率图进行匹配,同时使用加权的跨项损失损失损失损失损失损失损失。 此外, 地平级调整是通过将源和目标图像图和来自学生网络的具体目标图进行匹配,使用加权最大平均值递模- 递增度G。 DSP 演示域域域域域域域显示具有更具有挑战性的业绩差异性的工作。

0
下载
关闭预览

相关内容

专知会员服务
82+阅读 · 2020年9月27日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
VIP会员
相关VIP内容
专知会员服务
82+阅读 · 2020年9月27日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员