Training deep neural networks (DNNs) under weak supervision has attracted increasing research attention as it can significantly reduce the annotation cost. However, labels from weak supervision can be noisy, and the high capacity of DNNs enables them to easily overfit the label noise, resulting in poor generalization. Recent methods leverage self-training to build noise-resistant models, in which a teacher trained under weak supervision is used to provide highly confident labels for teaching the students. Nevertheless, the teacher derived from such frameworks may have fitted a substantial amount of noise and therefore produce incorrect pseudo-labels with high confidence, leading to severe error propagation. In this work, we propose Meta Self-Refinement (MSR), a noise-resistant learning framework, to effectively combat label noise from weak supervision. Instead of relying on a fixed teacher trained with noisy labels, we encourage the teacher to refine its pseudo-labels. At each training step, MSR performs a meta gradient descent on the current mini-batch to maximize the student performance on a clean validation set. Extensive experimentation on eight NLP benchmarks demonstrates that MSR is robust against label noise in all settings and outperforms state-of-the-art methods by up to 11.4% in accuracy and 9.26% in F1 score.


翻译:深度神经网络(DNN)的弱监督训练已经引起了越来越多的研究关注,因为它可以显着降低注释成本。然而,弱监督标签可能会有噪声,在DNN的高容量下,很容易过度拟合标签噪声,导致泛化能力差。最近的方法利用自我训练构建噪声抗性模型,在这种框架下,以弱监督训练的教师为学生提供高度可信的标签。然而,从这样的框架中衍生出的教师可能已经适应了大量的噪声,因此会产生带有高置信度的错误伪标签,从而导致严重的错误传播。在本文中,我们提出了元元自我调节(MSR),一种噪声抗性的学习框架,以有效地对抗弱监督标签中的噪声。与依靠带有噪声标签的固定教师不同,我们鼓励教师改进伪标签。在每个训练步骤中,MSR在当前小批次中执行元梯度下降,以最大化学生在干净的验证集上的性能。对八个NLP基准进行广泛实验表明,MSR在所有设置中都对标签噪声具有鲁棒性,并且在准确度和F1得分上的表现超过了最先进的方法高达11.4%和9.26%。

1
下载
关闭预览

相关内容

【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
34+阅读 · 2023年6月12日
专知会员服务
35+阅读 · 2021年7月7日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
【泡泡一分钟】用于深度双目的非监督适应方法(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
28+阅读 · 2022年3月28日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2021年4月8日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
VIP会员
相关VIP内容
【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
34+阅读 · 2023年6月12日
专知会员服务
35+阅读 · 2021年7月7日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员