Training deep neural networks (DNNs) with noisy labels is a challenging problem due to over-parameterization. DNNs tend to essentially fit on clean samples at a higher rate in the initial stages, and later fit on the noisy samples at a relatively lower rate. Thus, with a noisy dataset, the test accuracy increases initially and drops in the later stages. To find an early stopping point at the maximum obtainable test accuracy (MOTA), recent studies assume either that i) a clean validation set is available or ii) the noise ratio is known, or, both. However, often a clean validation set is unavailable, and the noise estimation can be inaccurate. To overcome these issues, we provide a novel training solution, free of these conditions. We analyze the rate of change of the training accuracy for different noise ratios under different conditions to identify a training stop region. We further develop a heuristic algorithm based on a small-learning assumption to find a training stop point (TSP) at or close to MOTA. To the best of our knowledge, our method is the first to rely solely on the \textit{training behavior}, while utilizing the entire training set, to automatically find a TSP. We validated the robustness of our algorithm (AutoTSP) through several experiments on CIFAR-10, CIFAR-100, and a real-world noisy dataset for different noise ratios, noise types, and architectures.


翻译:使用噪音标签的深层神经网络(DNN)培训是一个挑战性的问题,原因是超度参数化。 DNN基本上在初始阶段就以较高的比例适合清洁样品,后来则以相对较低的比例适应噪音样品。因此,由于数据组的噪音,测试精度最初会提高,在后阶段会下降。为了在最高可获取测试精度(MOTA)找到早期停止点,最近的研究假设是,一)有一个干净的验证装置,或者(二)噪音比率是已知的,或者两者都存在。然而,通常没有干净的验证装置,噪音估计也可能不准确。为了克服这些问题,我们提供了一种新的培训解决办法,而没有这些条件。我们分析了不同条件下不同噪音比率的培训精确率的变化率,以识别培训停止区。我们进一步根据一个小学习假设来开发超常值算法,以找到在MOTA(TP)或接近MOTA(M)的训练站点点。我们最了解的方法是首先依靠Textitalitivorate, 并且利用整个TRA(我们100-FAR)的精确的模型模型,我们通过一个可靠的模型,一个稳定的CIS-CAS-CAS-CAS-CIS-CRAS-C-C-C-C-CAR-CAS-CAR-CAR-CAS-CAS-CAS-CAS-CAR-CAR-CAR-CAR-CAR-CAR-CAR-CAS-CAS-CAS-CAS-CAR-CAR-CAS-CAS-CAS-CAS-CAS-CLAR-CLDAR-CAS-DAR-CAS-CAS-DAR-DAR-CAS-CAR-CAS-C-C-C-CAS-CAS-CAS-CAS-CAS-CAS-CAS-DAR-CAS-CAS-CAT-CLAR-C-CLAR-CAS-C-C-CAS-DAR-CAS-DAR-C-C-C-C-CAS-CAS-CAS-CAS-DAR-DAR-DAR-DAR-DAR-C-C-DAR-C-C-C-C-C-

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年11月20日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年11月20日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员