Semi-supervised domain adaptation (SSDA) aims to adapt models from a labeled source domain to a different but related target domain, from which unlabeled data and a small set of labeled data are provided. In this paper we propose a new approach for SSDA, which is to explicitly decompose the SSDA task into two sub-tasks: a semi-supervised learning (SSL) task in the target domain and an unsupervised domain adaptation (UDA) task across domains. We show that these two sub-tasks yield very different classifiers and thus naturally fits into the well established co-training framework, in which the two classifiers exchange their high confident predictions to iteratively "teach each other" so that both classifiers can excel in the target domain. We call our approach Deep Co-Training with Task Decomposition (DeCoTa). DeCoTa requires no adversarial training, making it fairly easy to implement. DeCoTa achieves state-of-the-art results on several SSDA datasets, outperforming the prior art by a notable 4% margin on DomainNet.


翻译:半监督域适应(SSDA)旨在将模型从标签源域转变为不同但相关的目标域,从中提供未标记的数据和少量标签数据。在本文件中,我们提议了SDA的新办法,即明确将SDA任务分解成两个子任务:目标域的半监督学习(SSL)任务和跨域的无监督域适应(UDA)任务。我们显示,这两个子任务产生非常不同的分类员,因此自然地符合既定的共同培训框架,在其中,两个分类员将高度自信的预测换成迭接式的“相互教育”,以便两个分类员都能在目标域上取得优异成绩。我们称我们的方法是“分解任务深度共同培训”(DeCoTa),DeCoTa不需要对抗性培训,因此很容易执行。DeCoTa在几个SDA数据集上取得了最先进的结果,在DomainNet上以显著的4%的距离表现了前一艺术。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
已删除
将门创投
9+阅读 · 2019年11月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Deep Co-Training for Semi-Supervised Image Segmentation
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
相关资讯
已删除
将门创投
9+阅读 · 2019年11月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Top
微信扫码咨询专知VIP会员