Despite the great success of pre-trained language models (LMs) in many natural language processing (NLP) tasks, they require excessive labeled data for fine-tuning to achieve satisfactory performance. To enhance the label efficiency, researchers have resorted to active learning (AL), while the potential of unlabeled data is ignored by most of prior work. To unleash the power of unlabeled data for better label efficiency and model performance, we develop ATM, a new framework that leverage self-training to exploit unlabeled data and is agnostic to the specific AL algorithm, serving as a plug-in module to improve existing AL methods. Specifically, the unlabeled data with high uncertainty is exposed to oracle for annotations while those with low uncertainty are leveraged for self-training. To alleviate the label noise propagation issue in self-training, we design a simple and effective momentum-based memory bank to dynamically aggregate the model predictions from all rounds. By extensive experiments, we demonstrate that ATM outperforms the strongest active learning and self-training baselines and improve the label efficiency by 51.9% on average.


翻译:尽管在许多自然语言处理(NLP)任务中,培训前语言模型(LMS)取得了巨大成功,但它们需要过度的标签数据来进行微调,以达到令人满意的业绩。为了提高标签效率,研究人员已诉诸积极学习(AL),而大部分先前的工作忽略了未贴标签数据的潜力。为了释放未贴标签数据的力量,以提高标签效率和模型性能,我们开发了ATM,这是一个新的框架,它利用自我培训来利用未贴标签的数据,并且对具体的AL算法具有不可知性,作为插件模块来改进现有的AL方法。具体地说,未贴标签的高度不确定数据暴露在手语中,而那些低不确定性的数据被用于自我培训。为了在自我培训中减轻标签噪音传播问题,我们设计了一个简单有效的动力记忆库,以便动态地汇总所有回合的模型预测。通过广泛的实验,我们证明ATM系统比最强的积极学习和自我培训基线要强,平均提高标签效率51.9%。

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
已删除
将门创投
5+阅读 · 2020年3月2日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
8+阅读 · 2021年7月15日
Arxiv
3+阅读 · 2018年12月29日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2020年3月2日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Top
微信扫码咨询专知VIP会员