While recent studies on semi-supervised learning have shown remarkable progress in leveraging both labeled and unlabeled data, most of them presume a basic setting of the model is randomly initialized. In this work, we consider semi-supervised learning and transfer learning jointly, leading to a more practical and competitive paradigm that can utilize both powerful pre-trained models from source domain as well as labeled/unlabeled data in the target domain. To better exploit the value of both pre-trained weights and unlabeled target examples, we introduce adaptive consistency regularization that consists of two complementary components: Adaptive Knowledge Consistency (AKC) on the examples between the source and target model, and Adaptive Representation Consistency (ARC) on the target model between labeled and unlabeled examples. Examples involved in the consistency regularization are adaptively selected according to their potential contributions to the target task. We conduct extensive experiments on several popular benchmarks including CUB-200-2011, MIT Indoor-67, MURA, by fine-tuning the ImageNet pre-trained ResNet-50 model. Results show that our proposed adaptive consistency regularization outperforms state-of-the-art semi-supervised learning techniques such as Pseudo Label, Mean Teacher, and MixMatch. Moreover, our algorithm is orthogonal to existing methods and thus able to gain additional improvements on top of MixMatch and FixMatch. Our code is available at https://github.com/SHI-Labs/Semi-Supervised-Transfer-Learning.


翻译:虽然最近关于半监督学习的研究显示,在利用标签和未标签数据方面取得了显著进展,但大多数研究假设模型的基本设置是随机初始化的。在这项工作中,我们认为半监督学习和转让学习是联合进行的,从而形成一个更加实用和竞争性的范例,既可以利用源域的强大预先培训模型,也可以利用目标域的标签/未标签数据。为了更好地利用预先培训的重量和未标签目标示例的价值,我们引入了适应一致性规范化,其中包括两个互补组成部分:源和目标模型之间范例的适应性知识一致性(AKC),以及标签和未标签实例之间目标模型的适应性代表性一致性(ARC),从而形成一个能够根据对目标任务的潜在贡献来适应性地选择一致性正规化的范例。我们通过对预培训的ResNet-50模型(AKC)进行微调化的图像网络(AKC)前知识一致性(AKC), 以及调整性表示我们提议的适应性一致性规则(Suprevision-Sloverial-Mlix) 和(Seal-Serviewal-I-Sil-Sil-Mlieval-Mlix)的现有升级学习方法是我们现有的升级的升级和升级-Silmab-Sil-moducal-moducl-Sil-Sil-Sil-lab-Sil-Sil-la-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-Sil-

23
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年3月7日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
14+阅读 · 2021年3月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员