Many variants of unsupervised domain adaptation (UDA) problems have been proposed and solved individually. Its side effect is that a method that works for one variant is often ineffective for or not even applicable to another, which has prevented practical applications. In this paper, we give a general representation of UDA problems, named Generalized Domain Adaptation (GDA). GDA covers the major variants as special cases, which allows us to organize them in a comprehensive framework. Moreover, this generalization leads to a new challenging setting where existing methods fail, such as when domain labels are unknown, and class labels are only partially given to each domain. We propose a novel approach to the new setting. The key to our approach is self-supervised class-destructive learning, which enables the learning of class-invariant representations and domain-adversarial classifiers without using any domain labels. Extensive experiments using three benchmark datasets demonstrate that our method outperforms the state-of-the-art UDA methods in the new setting and that it is competitive in existing UDA variations as well.


翻译:许多未经监督的域适应(UDA)问题变式是单独提出和解决的,其副作用是,一个变式的实用方法往往对另一个变式无效或甚至不适用,从而阻碍了实际应用。在本文件中,我们泛泛地介绍了UDA问题,称为通用域适应(GDA)。GDA将主要变式作为特例,使我们能够在综合框架内将它们组织起来。此外,这种笼统化导致一个新的挑战性环境,即现有方法失败,例如域标签未知,而类标签仅部分提供给每个域。我们提出了新设置的新办法。我们的方法的关键是自我监督的级破坏性学习,这样可以不使用任何域标签来学习类变式表示和域对立分类。使用三个基准数据集进行的广泛实验表明,我们的方法在新的设置中超过了最新的UDA方法,而且在现有的UDA变异中也具有竞争力。

1
下载
关闭预览

相关内容

最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
69+阅读 · 2020年10月24日
【课程推荐】 人工普遍智能(Artificial General Intelligence)
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
13+阅读 · 2021年3月29日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员