With the goal of directly generalizing trained models to unseen target domains, domain generalization (DG), a newly proposed learning paradigm, has attracted considerable attention. Previous DG models usually require a sufficient quantity of annotated samples from observed source domains during training. In this paper, we relax this requirement about full annotation and investigate semi-supervised domain generalization (SSDG) where only one source domain is fully annotated along with the other domains totally unlabeled in the training process. With the challenges of tackling the domain gap between observed source domains and predicting unseen target domains, we propose a novel deep framework via joint domain-aware labels and dual-classifier to produce high-quality pseudo-labels. Concretely, to predict accurate pseudo-labels under domain shift, a domain-aware pseudo-labeling module is developed. Also, considering inconsistent goals between generalization and pseudo-labeling: former prevents overfitting on all source domains while latter might overfit the unlabeled source domains for high accuracy, we employ a dual-classifier to independently perform pseudo-labeling and domain generalization in the training process. Extensive results on publicly available DG benchmark datasets show the efficacy of our proposed SSDG method compared to the well-designed baselines and the state-of-the-art semi-supervised learning methods.


翻译:由于将经过培训的模型直接推广到看不见的目标领域,新提出的学习模式域通用(DG)吸引了相当多的关注。以前的DG模型通常要求培训期间从观测源域获得足够数量的附加说明的样本。在本文件中,我们放松了对全面注解的要求,并调查半监督域通用(SSDG)的要求,因为只有一种源域与培训过程中完全没有标签的其他域一起得到充分注解。由于在解决观测到的来源域与预测不可见目标域之间的域间差距方面存在挑战,我们提出一个新的深层次框架,通过联合域觉标签和双级分类来生成高质量的伪标签。具体地说,为了预测在转轨中准确的伪标签,我们制定了一个域觉识伪标签模块。此外,考虑到一般化和伪标签之间的目标不一致:以前防止在所有源域上过度配齐,而后可能过分适应未标出的来源域,因此高精确度,我们采用双级分类,以便在培训过程中独立进行伪标签和域域通用的通用化标签和双级分类,以产生高质量的伪标签。具体来说,在对正位转移的准确进行准确进行准确的伪标定,在标准标准基准上,我们的拟议的标准化标准数据库数据库中,我们的拟议学习。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年3月7日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年3月7日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员