最近的研究揭示了预训练语言模型(PLMs)的有趣的少样本学习能力:他们可以在微调了少量标记数据后快速适应新任务,这些数据被构造成提示,无需大量的任务特定注解。尽管他们的表现很有希望,但大多数只从小型训练集中学习的少样本方法的表现仍然远低于完全监督的训练。在这项工作中,我们从不同的角度研究了PLMs的少样本学习:我们首先调整一个自回归PLM在少样本样本上,然后用它作为生成器来生成大量的新的训练样本,这些样本增加了原始的训练集。为了鼓励生成器产生标签判别样本,我们通过加权最大似然训练它,其中每个token的权重根据判别元学习目标自动调整。然后,一个分类PLM可以在少样本和合成样本上进行微调,并进行正则化以获得更好的泛化和稳定性。我们的方法FewGen在GLUE基准测试的七个分类任务中,比现有的少样本学习方法取得了更好的整体结果,平均提高了无增强方法5+个百分点,超过了增强方法3+个百分点。Tuning Language Models as Training Data Generators for Augmentation-Enhanced Few-Shot Learning

成为VIP会员查看完整内容
31

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
34+阅读 · 2023年6月12日
【ICML2023】终身语言预训练与分布式专业化专家
专知会员服务
26+阅读 · 2023年5月26日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
25+阅读 · 2021年5月23日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
论文浅尝 | 弱监督下极简的视觉语言预训练模型
开放知识图谱
1+阅读 · 2022年9月26日
ICML 2022 | 探索语言模型的最佳架构和训练方法
PaperWeekly
0+阅读 · 2022年7月5日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关VIP内容
【ICML2023】改善自监督Vision Transformers的视觉提示调优
专知会员服务
34+阅读 · 2023年6月12日
【ICML2023】终身语言预训练与分布式专业化专家
专知会员服务
26+阅读 · 2023年5月26日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
25+阅读 · 2021年5月23日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员