Domain adaptation aims to bridge the domain shifts between the source and target domains. These shifts may span different dimensions such as fog, rainfall, etc. However, recent methods typically do not consider explicit prior knowledge on a specific dimension, thus leading to less desired adaptation performance. In this paper, we study a practical setting called Specific Domain Adaptation (SDA) that aligns the source and target domains in a demanded-specific dimension. Within this setting, we observe the intra-domain gap induced by different domainness (i.e., numerical magnitudes of this dimension) is crucial when adapting to a specific domain. To address the problem, we propose a novel Self-Adversarial Disentangling (SAD) framework. In particular, given a specific dimension, we first enrich the source domain by introducing a domainness creator with providing additional supervisory signals. Guided by the created domainness, we design a self-adversarial regularizer and two loss functions to jointly disentangle the latent representations into domainness-specific and domainness-invariant features, thus mitigating the intra-domain gap. Our method can be easily taken as a plug-and-play framework and does not introduce any extra costs in the inference time. We achieve consistent improvements over state-of-the-art methods in both object detection and semantic segmentation tasks.


翻译:域适应旨在弥合源和目标领域之间的域变化。这些变化可能涉及不同层面,如雾、降雨等。然而,最近的方法通常不考虑对特定层面的明确先前知识,从而导致不那么理想的适应性表现。在本文件中,我们研究了一个名为具体域适应(SDA)的实用环境,该环境将源和目标领域与特定层面相匹配。在此背景下,我们观察到不同域性(即这个层面的数值大小)引起的内域内部差距在适应特定领域时至关重要。为了解决这一问题,我们建议了一个全新的自我反射(SAD)框架。特别是,考虑到一个特定层面,我们首先通过引入一个域性创建者,提供额外的监督信号,从而丰富源域域域域域域域。我们设计了一种自对抗的常规功能和两个损失功能,以联合将潜在表达方式分解成特定域性和域性和域性差异,从而缩小内域间差距。我们的方法可以很容易地被看作一个顶端和边际断断断断框架。我们的方法不会在时间段探测中产生任何额外的成本。

0
下载
关闭预览

相关内容

专知会员服务
113+阅读 · 2020年10月8日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
已删除
将门创投
5+阅读 · 2018年2月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generalized Source-free Domain Adaptation
Arxiv
0+阅读 · 2021年10月8日
Arxiv
0+阅读 · 2021年10月6日
Arxiv
4+阅读 · 2018年4月17日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
已删除
将门创投
5+阅读 · 2018年2月28日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员