半监督学习(SSL)由于成功地使用了未标记数据,在许多机器学习任务中受到了极大的关注,而现有的SSL算法在训练过程中要么使用所有未标记的示例,要么使用具有固定高置信度预测的未标记示例。然而,可能会有太多正确/错误的伪标签示例被删除/选择。在本工作中,我们提出一个简单但强大的训练示例子集,以便只使用与已标记数据相关的伪标签的未标记示例来训练模型。在每次更新迭代中,只保留损失小于给定阈值(通过迭代动态调整)的示例,从而执行选择。我们提出的Dash方法在无标记数据选择方面具有自适应性,并具有理论保障。具体地,我们从非凸优化的角度从理论上建立了Dash的收敛速度。最后,我们通过与最先进的基准比较,证明了该方法的有效性。

http://proceedings.mlr.press/v139/xu21e.html

成为VIP会员查看完整内容
18

相关内容

半监督学习(Semi-Supervised Learning,SSL)是模式识别和机器学习领域研究的重点问题,是监督学习与无监督学习相结合的一种学习方法。半监督学习使用大量的未标记数据,以及同时使用标记数据,来进行模式识别工作。当使用半监督学习时,将会要求尽量少的人员来从事工作,同时,又能够带来比较高的准确性,因此,半监督学习目前正越来越受到人们的重视。
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
31+阅读 · 2021年7月2日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
36+阅读 · 2021年3月29日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
29+阅读 · 2020年12月7日
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
论文浅尝 | 重新实验评估知识图谱补全方法
开放知识图谱
28+阅读 · 2020年3月29日
已删除
将门创投
3+阅读 · 2019年6月12日
论文浅尝 | 基于深度序列模型的知识图谱补全
开放知识图谱
29+阅读 · 2019年5月19日
基于样本选择的安全图半监督学习方法
如何用张量分解加速深层神经网络?(附代码)
Arxiv
0+阅读 · 2021年10月21日
Deep Co-Training for Semi-Supervised Image Segmentation
Fast AutoAugment
Arxiv
5+阅读 · 2019年5月1日
Arxiv
8+阅读 · 2018年4月8日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月25日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
26+阅读 · 2021年7月11日
专知会员服务
31+阅读 · 2021年7月2日
【CVPR2021】现实世界域泛化的自适应方法
专知会员服务
55+阅读 · 2021年3月31日
专知会员服务
36+阅读 · 2021年3月29日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知会员服务
29+阅读 · 2020年12月7日
相关资讯
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
论文浅尝 | 重新实验评估知识图谱补全方法
开放知识图谱
28+阅读 · 2020年3月29日
已删除
将门创投
3+阅读 · 2019年6月12日
论文浅尝 | 基于深度序列模型的知识图谱补全
开放知识图谱
29+阅读 · 2019年5月19日
基于样本选择的安全图半监督学习方法
如何用张量分解加速深层神经网络?(附代码)
微信扫码咨询专知VIP会员