Adversarial learning has demonstrated good performance in the unsupervised domain adaptation setting, by learning domain-invariant representations. However, recent work has shown limitations of this approach when label distributions differ between the source and target domains. In this paper, we propose a new assumption, generalized label shift ($GLS$), to improve robustness against mismatched label distributions. $GLS$ states that, conditioned on the label, there exists a representation of the input that is invariant between the source and target domains. Under $GLS$, we provide theoretical guarantees on the transfer performance of any classifier. We also devise necessary and sufficient conditions for $GLS$ to hold, by using an estimation of the relative class weights between domains and an appropriate reweighting of samples. Our weight estimation method could be straightforwardly and generically applied in existing domain adaptation (DA) algorithms that learn domain-invariant representations, with small computational overhead. In particular, we modify three DA algorithms, JAN, DANN and CDAN, and evaluate their performance on standard and artificial DA tasks. Our algorithms outperform the base versions, with vast improvements for large label distribution mismatches. Our code is available at https://tinyurl.com/y585xt6j.


翻译:Adversarial 学习Adversarial 证明,在未经监督的领域适应环境中,通过学习域与目标域间差异的表达方式,在学习域与目标域间差异性代表方式,展示出良好的业绩;然而,最近的工作显示,当标签分布在源和目标域间不同时,这一方法存在局限性;在本文件中,我们提议一个新的假设,即通用标签转换(GLS$),以提高对不匹配的标签分布的稳健性。$GLS$指出,以标签为条件,在未受监督的领域适应环境中,存在着一种无差异的输入。在来源和目标域间,我们根据美元,为任何分类员的转移性能提供理论保证。我们还为美元设计了必要和充分的条件,以便保持这一方法,为此,我们使用了对区域间相对等级加权的估算和对样品的适当重新加权。我们的权重估算方法可以直接和通用地适用于现有的域适应(DA)算法,以小的计算间接费用为条件。特别是,我们修改了三个DA算法,即JAN、DNN和CAN6 CDAN,以及CDAN,并评价其在标准和人造DA任务上的绩效。我们的算法超越了基础版本,我们的算法超越了基础版本,我们的基版本。

0
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
37+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
7+阅读 · 2018年4月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年2月14日
Arxiv
13+阅读 · 2019年1月26日
VIP会员
相关VIP内容
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
37+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员