Recent Semi-supervised learning (SSL) works show significant improvement in SSL algorithms' performance using better-unlabeled data representations. However, recent work [Oliver et al., 2018] shows that the SSL algorithm's performance could degrade when the unlabeled set has out-of-distribution examples (OODs). In this work, we first study the critical causes of OOD's negative impact on SSL algorithms. We found that (1) the OOD's effect on the SSL algorithm's performance increases as its distance to the decision boundary decreases, and (2) Batch Normalization (BN), a popular module, could degrade the performance instead of improving the performance when the unlabeled set contains OODs. To address the above causes, we proposed a novel unified-robust SSL approach that can be easily extended to many existing SSL algorithms, and improve their robustness against OODs. In particular, we propose a simple modification of batch normalization, called weighted batch normalization, that improves BN's robustness against OODs. We also developed two efficient hyper-parameter optimization algorithms that have different tradeoffs in computational efficiency and accuracy. Extensive experiments on synthetic and real-world datasets prove that our proposed approaches significantly improves the robustness of four representative SSL algorithms against OODs compared with four state-of-the-art robust SSL approaches.


翻译:最近进行的半监督学习(SSL)工作显示,使用更贴标签的数据表示,SLS算法的性能有了显著改善。然而,最近的工作[Oliver等人,2018年]表明,当未贴标签的SL算法有分布外的例子(OOOD)时,SL算法的性能可能会降低。在这项工作中,我们首先研究OOOD对SSL算法的负面影响的关键原因。我们发现:(1)OOOOOD对SL算法的性能影响随着它与决定边界的缩小距离而大大提高,(2)BAcc 正常化(BN)是一个受欢迎的模块,它可以降低性能,而不是在未贴标签的套件含有OODs时改进性能。为了解决上述原因,我们提议了一种新型的统一的SLSL算法方法,可以很容易推广到许多现有的SSL算法,并改进它们对于OSL的稳妥性成份法,我们建议对BN对OOD的稳妥性做法进行简单修改,提高BN对OD的稳健准性。我们还开发了两种高准性超度的超度优化的SLALA值的四号,在高度的合成的SLDLAV的四级算法中可以大大地试验中大幅度地检验。

0
下载
关闭预览

相关内容

【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
9+阅读 · 2018年3月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员