Mainstream approaches for unsupervised domain adaptation (UDA) learn domain-invariant representations to narrow the domain shift. Recently, self-training has been gaining momentum in UDA, which exploits unlabeled target data by training with target pseudo-labels. However, as corroborated in this work, under distributional shift in UDA, the pseudo-labels can be unreliable in terms of their large discrepancy from target ground truth. Thereby, we propose Cycle Self-Training (CST), a principled self-training algorithm that explicitly enforces pseudo-labels to generalize across domains. CST cycles between a forward step and a reverse step until convergence. In the forward step, CST generates target pseudo-labels with a source-trained classifier. In the reverse step, CST trains a target classifier using target pseudo-labels, and then updates the shared representations to make the target classifier perform well on the source data. We introduce the Tsallis entropy as a confidence-friendly regularization to improve the quality of target pseudo-labels. We analyze CST theoretically under realistic assumptions, and provide hard cases where CST recovers target ground truth, while both invariant feature learning and vanilla self-training fail. Empirical results indicate that CST significantly improves over the state-of-the-arts on visual recognition and sentiment analysis benchmarks.


翻译:未经监督的域适应(UDA)的主要方针是学习域内差异的域内变化,以缩小域变换。最近,UDA的自我培训势头不断增强,通过使用目标假标签培训开发未贴标签的目标数据。然而,正如这项工作所证实的,在UDA的分布式转换中,假标签从与目标地面真相的巨大差异来看可能不可靠。因此,我们提出循环自我培训(CST),这是一套原则性自我培训算法,明确执行假标签,以便在各域间推广。科技委的周期是前进一步,反向一步,直到趋同。在前进的一步中,科技委用源培训的分类员制作了目标假标签。在反向步骤中,科技委用目标分类员培训了一个目标分类员,使用目标假标签,然后更新了共同表述表,使目标分类员在源数据上表现良好。我们提出“Tsalliis entropy ”,作为信任性的正规化,以提高目标伪标签的质量。我们在现实假设下从理论上分析科技委的假设下,并提供硬案例,在科技委恢复目标地面地面事实分析结果时,同时大幅改进了“图像”的自我分析。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
利用Uncertainty修正Domain Adaptation中的伪标签
极市平台
3+阅读 · 2020年4月16日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Source Free Unsupervised Graph Domain Adaptation
Arxiv
0+阅读 · 2021年12月3日
VIP会员
相关资讯
利用Uncertainty修正Domain Adaptation中的伪标签
极市平台
3+阅读 · 2020年4月16日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员