The recently proposed Mean Teacher has achieved state-of-the-art results in several semi-supervised learning benchmarks. The Mean Teacher method can exploit large-scale unlabeled data in a self-ensembling manner. In this paper, an effective Couple Learning method based on a well-trained model and a Mean Teacher model is proposed. The proposed pseudo-labels generated model (PLG) can increase strongly-labeled data and weakly-labeled data to improve performance of the Mean Teacher method. The Mean Teacher method can suppress noise in pseudo-labels data. The Couple Learning method can extract more information in the compound training data. These experimental results on Task 4 of the DCASE2020 challenge demonstrate the superiority of the proposed method, achieving about 39.18% F1-score on public eval set, outperforming 37.12% of the baseline system by a significant margin.


翻译:最近提出的 " 良师 " 方案在一些半监督的学习基准中取得了最新成果。 " 良师 " 方案可以以自我组合的方式利用大规模无标签数据。在本文中,提出了一种基于良好培训模式和 " 良师 " 模式的有效 " 方案。 拟议的假标签生成模式(PLG)可以增加贴有强烈标签的数据和标签不高的数据,以提高 " 良师 " 方法的绩效。 " 优师 " 方案可以抑制假标签数据中的噪音。 " 双师 " 方案可以在复合培训数据中提取更多信息。 " 双师 " 方案 " 挑战 " 任务4 " 的实验结果显示了拟议方法的优越性,在公共电子价值集上实现了大约39.18%的F1分数,大大超过基线系统的37.12%。

0
下载
关闭预览

相关内容

迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
6+阅读 · 2019年11月14日
Deep Co-Training for Semi-Supervised Image Segmentation
Revisiting CycleGAN for semi-supervised segmentation
Arxiv
3+阅读 · 2019年8月30日
VIP会员
Top
微信扫码咨询专知VIP会员