Benefiting from considerable pixel-level annotations collected from a specific situation (source), the trained semantic segmentation model performs quite well but fails in a new situation (target) due to the large domain shift. To mitigate the domain gap, previous cross-domain semantic segmentation methods always assume the co-existence of source data and target data during domain alignment. However, the accessing to source data in the real scenario may raise privacy concerns and violate intellectual property. To tackle this problem, we focus on an interesting and challenging cross-domain semantic segmentation task where only the trained source model is provided to the target domain. Specifically, we propose a unified framework called ATP, which consists of three schemes, ie, feature Alignment, bidirectional Teaching, and information Propagation. First, we devise a curriculum-style entropy minimization objective to implicitly align the target features with unseen source features via the provided source model. Second, besides positive pseudo labels in vanilla self-training, we are among the first ones to introduce negative pseudo labels to this field and develop a bidirectional self-training strategy to enhance the representation learning in the target domain. Finally, the information propagation scheme is employed to further reduce the intra-domain discrepancy within the target domain via pseudo semi-supervised learning. Extensive results on synthesis-to-real and cross-city driving datasets validate \textbf{ATP} yields state-of-the-art performance, even on par with methods that need access to source data.


翻译:利用从特定情况(来源)收集的大量像素层次的注释,经过培训的语义分解模型在从某种特定情况(源)中收集的相当多像素层次的注释中,表现得很好,但在新的情况(目标)中却失败了。为了缩小领域差异,以前的跨部语义分解方法总是假定在域对齐过程中源数据和目标数据共存。然而,在真实情况下获取源数据可能会引起隐私问题并侵犯知识产权。为了解决这一问题,我们侧重于一个有趣的、具有挑战性的跨部语义分解任务,即只向目标域提供经过培训的源模式。具体地说,我们提议了一个称为ATP的统一框架,由三种方案组成,即:i、地势对齐、双向导式教学和信息促进。首先,我们设计了一个课程风格最小化目标特征,通过所提供的源模型将目标特性与隐蔽的源特性联系起来。第二,除了香草自培训中的正面假标签外,我们还首先向这个字段引入了负伪标签,并开发了双向自我培训的自我定位战略,用以在目标域内加强内部数据流化分析结果,从而学习数据流化结果。最后学习了在目标域域内的数据分析方法。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
带你读论文 | 生成对抗网络GAN论文TOP 10
微软研究院AI头条
24+阅读 · 2019年4月11日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Domain Adaptation via Prompt Learning
Arxiv
0+阅读 · 2022年2月14日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
VIP会员
Top
微信扫码咨询专知VIP会员