Despite the large progress in supervised learning with Neural Networks, there are significant challenges in obtaining high-quality, large-scale and accurately labeled datasets. In this context, in this paper we address the problem of classification in the presence of label noise and more specifically, both close-set and open-set label noise, that is when the true label of a sample may, or may not belong to the set of the given labels. In the heart of our method is a sample selection mechanism that relies on the consistency between the annotated label of a sample and the distribution of the labels in its neighborhood in the feature space; a relabeling mechanism that relies on the confidence of the classifier across subsequent iterations; and a training strategy that trains the encoder both with a self-consistency loss and the classifier-encoder with the cross-entropy loss on the selected samples alone. Without bells and whistles, such as co-training so as to reduce the self-confirmation bias, and with robustness with respect to settings of its few hyper-parameters, our method significantly surpasses previous methods on both CIFAR10/CIFAR100 with artificial noise and real-world noisy datasets such as WebVision and ANIMAL-10N.


翻译:尽管在与神经网络的监督下学习方面取得了很大进展,但在获得高质量、大规模和准确贴标签的数据集方面仍面临重大挑战,在这方面,我们在本文件中处理在标签噪音的情况下分类问题,更具体地说,是贴近和开放标签的噪音,即一个样品的真正标签可能属于或可能不属于给定标签组。我们方法的核心是一个抽样选择机制,它依赖于一个样品的附加注释标签与特征空间内其周围标签分布的一致性;一个重新标签机制,依赖分类者对以后迭代的信任;以及一项培训战略,对编码者进行自我一致损失的培训,对分类者进行与选定样品跨种性损失有关的培训。没有钟和哨子,例如进行联合培训,以减少自我确认的偏差,并严格尊重其少数高分辨率的设置,我们的方法大大超过以前在CIRA-10-NAR-NAR-NAR-NAR-NARAS-NVAS-IAR-NVARAS-IAS-IAR-NVAR-NVAL-NVAL-NVAS-NAR-NAR-NAR-NAR-NAR-NAS-NARMISMAR-NARMARMAR-NAS-NAS-NAS-NAS-NAS-NAS-NAS-NERMISMARMARMAR-NAS-NAS-NAS-NAS-NAS-NAS-NAS-NAS-NASMARMIAS-NAS-IAS-NAS-IAS-IMARMARMARMARMI)的以往数据基数据基数据基数据基数据基)数据上的以往方法方法。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2022年1月25日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
11+阅读 · 2021年2月17日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员