神经序列标记被广泛应用于许多自然语言处理(NLP)任务,如命名实体识别(NER)和用于对话系统和语义分析的槽标记。最近,大规模的预训练语言模型在这些任务中显示出了显著的成功,只要对大量特定任务的标记数据进行微调。然而,获取这样大规模的标记训练数据不仅代价昂贵,而且由于数据访问和隐私限制,在许多敏感用户应用中可能不可行。如果序列标记任务需要在标记级进行这样的注释,这种情况就会加剧。在这项工作中,我们提出以解决标签短缺的神经序列标记模型。具体来说,我们提出了一个元自训练框架,它利用很少的手工标注标签来训练神经序列模型。自训练是一种通过迭代知识交换从大量无标记数据中学习的有效机制,而元学习有助于自适应样本重加权,以减少噪声伪标记带来的误差传播。在6个基准数据集上的大量实验表明了该方法的有效性,其中包括2个用于大规模多语言NER的基准数据集和4个用于面向任务的对话系统的槽标记数据集。在每个任务中,每个类别只有10个标注的例子,该方法比目前最先进的方法提高了10%,证明了其在有限的训练标签体系中的有效性。

https://www.microsoft.com/en-us/research/uploads/prod/2020/10/MetaST_Few_shot_KDD_2021.pdf

成为VIP会员查看完整内容
31

相关内容

专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
40+阅读 · 2021年5月24日
专知会员服务
25+阅读 · 2021年5月23日
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
29+阅读 · 2020年12月7日
专知会员服务
29+阅读 · 2020年9月18日
【浙江大学】使用MAML元学习的少样本图分类
专知会员服务
62+阅读 · 2020年3月22日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
Few-shot Scene-adaptive Anomaly Detection
Arxiv
8+阅读 · 2020年7月15日
Arxiv
5+阅读 · 2020年3月17日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
5+阅读 · 2018年1月30日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
40+阅读 · 2021年5月24日
专知会员服务
25+阅读 · 2021年5月23日
【WWW2021】少样本图学习分子性质预测
专知会员服务
35+阅读 · 2021年2月20日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
专知会员服务
29+阅读 · 2020年12月7日
专知会员服务
29+阅读 · 2020年9月18日
【浙江大学】使用MAML元学习的少样本图分类
专知会员服务
62+阅读 · 2020年3月22日
相关资讯
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
微信扫码咨询专知VIP会员