Unsupervised Domain Adaptation (UDA) aims to generalize the knowledge learned from a well-labeled source domain to an unlabeled target domain. Recently, adversarial domain adaptation with two distinct classifiers (bi-classifier) has been introduced into UDA which is effective to align distributions between different domains. Previous bi-classifier adversarial learning methods only focus on the similarity between the outputs of two distinct classifiers. However, the similarity of the outputs cannot guarantee the accuracy of target samples, i.e., target samples may match to wrong categories even if the discrepancy between two classifiers is small. To challenge this issue, in this paper, we propose a cross-domain gradient discrepancy minimization (CGDM) method which explicitly minimizes the discrepancy of gradients generated by source samples and target samples. Specifically, the gradient gives a cue for the semantic information of target samples so it can be used as a good supervision to improve the accuracy of target samples. In order to compute the gradient signal of target samples, we further obtain target pseudo labels through a clustering-based self-supervised learning. Extensive experiments on three widely used UDA datasets show that our method surpasses many previous state-of-the-arts. Codes are available at https://github.com/lijin118/CGDM.


翻译:未经监督的域域适应(UDA)旨在将从标签良好的源域域到未贴标签的目标域域所学的知识推广到未贴标签的目标域。最近,在UDA中引入了与两个不同的分类器(双分类器)的对抗性域适应(双分类器),这可以有效地协调不同域间分布。以前的双分类的对抗性学习方法只侧重于两个不同分类器的产出之间的相似性。然而,产出的相似性并不能保证目标样品的准确性,即即使两个分类器之间的差异小,目标样品也可能与错误的类别相匹配。为了质疑这一问题,我们在本文件中建议采用跨域常态梯度差异最小化(CGDM)方法,明确将来源样品和目标样品产生的梯度差异最小化。具体地说,梯度为目标样品的语义信息提供了提示,以便用作良好的监督,提高目标样品的准确性。为了比较目标样品的梯度信号,我们通过基于集群的自我监督的自我监督学习进一步获得目标假标签。我们广泛使用了三种UDA/DDFS 之前所用的方法。

0
下载
关闭预览

相关内容

专知会员服务
35+阅读 · 2021年7月7日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年4月10日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年4月10日
Top
微信扫码咨询专知VIP会员