Deep neural networks (DNNs) suffer from noisy-labeled data because of the risk of overfitting. To avoid the risk, in this paper, we propose a novel DNN training method with sample selection based on adaptive k-set selection, which selects k (< n) clean sample candidates from the whole n noisy training samples at each epoch. It has a strong advantage of guaranteeing the performance of the selection theoretically. Roughly speaking, a regret, which is defined by the difference between the actual selection and the best selection, of the proposed method is theoretically bounded, even though the best selection is unknown until the end of all epochs. The experimental results on multiple noisy-labeled datasets demonstrate that our sample selection strategy works effectively in the DNN training; in fact, the proposed method achieved the best or the second-best performance among state-of-the-art methods, while requiring a significantly lower computational cost. The code is available at https://github.com/songheony/TAkS.


翻译:深神经网络(DNNs)由于存在过度装配的风险,因此受到杂乱标签的数据。 为了避免这种风险,我们在本文件中提出一种新的DNN培训方法,根据适应性 kset 选择样本选择样本,从每个时代整个吵闹的培训样本中选择 k ( < n) 清洁样本候选人,这在理论上保证选择的绩效方面有很大的优势。 粗略地说,对拟议方法的遗憾(以实际选择与最佳选择之间的差别来界定)在理论上是有约束的,即使最佳选择直到所有时代结束为止都未知。 多个噪音标签数据集的实验结果表明,我们的样本选择战略在DNN培训中有效; 事实上,拟议方法在最新方法中实现了最佳或次优的绩效,同时要求大幅降低计算成本。 代码可在 https://github.com/songheony/TakS网站上查阅。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
32+阅读 · 2020年3月30日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
0+阅读 · 2021年5月26日
Arxiv
8+阅读 · 2021年1月28日
Paraphrase Generation with Deep Reinforcement Learning
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关论文
Arxiv
0+阅读 · 2021年5月26日
Arxiv
8+阅读 · 2021年1月28日
Paraphrase Generation with Deep Reinforcement Learning
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员