有效且稳健的数据增强小样本学习 | 论文荐读

2022 年 3 月 25 日 学术头条

论文标题:

FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning (ACL'22)


作者:

Jing Zhou*, Yanan Zheng*, Jie Tang, Jian Li, and Zhilin Yang


论文链接:

https://arxiv.org/abs/2108.06332


论文代码和数据:

https://github.com/zhouj8553/FlipDA

数据增强在图像识别等诸多领域被证明是行之有效的提升性能的方式,也是普遍用于提升小样本学习性能的方式。然而大多数以前的文本数据增强的方法存在严重缺陷:(1)对于包括替换、插入、删除等基本操作在内的大多数数据增强方法只能带来极少的边际收益,并且对于大多数的任务不奏效;(2)其次在很多情况下,使用数据增强方法进行小样本学习的性能非常不稳定,甚至进入故障模式(Failure Mode),即小样本学习的性能会因使用预训练模型以及执行任务的不同,而产生严重下降或者波动。这些缺陷都导致已有数据增强的方法无法在小样本学习的任务中实际使用。


为了应对这一挑战,我们在一种更加严苛的设定下,即困难任务的数据增强(即小样本自然语言理解)和强基线(即具有超过一个亿参数的预训练模型),提出了一种新的数据增强方法 FlipDA,它联合使用生成模型和分类器来生成标签翻转数据。FlipDA 关键是发现了生成标签翻转(Label-Flipped)数据对性能提升更重要而不是生成标签保留(Label-Preserved)的数据。FlipDA 实现了有效性和稳健性之间的良好折衷——它大大提高了许多任务的性能,同时不会对其他任务产生负面影响。

我们在包含大量困难小样本自然语言理解任务的基准数据集 SuperGLUE、以及不同规模的预训练模型(ALBERT和DeBERTa)上进行了大量实验。实验结果表明,相较于已有最优数据扩增方法,FlipDA 的平均性能有了显著提升;此外 FlipDA 在不同的预训练模型和不同任务中都表现出显著鲁棒性,避免了故障模式。

点击【阅读原文】查看paper

登录查看更多
6

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
【CVPR2022】基于密集学习的半监督目标检测
专知会员服务
19+阅读 · 2022年4月19日
【AAAI 2022】基于数据分布生成的可预测概念漂移适应
专知会员服务
33+阅读 · 2022年1月12日
专知会员服务
50+阅读 · 2020年7月16日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
小样本自然语言理解的基准测试FewNLU | 论文荐读
学术头条
1+阅读 · 2022年3月23日
谷歌NIPS'21 | 如何让图神经网络更稳健?
图与推荐
1+阅读 · 2022年3月22日
哈工大|NLP数据增强方法?我有15种
哈工大SCIR
1+阅读 · 2021年10月13日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
21+阅读 · 2020年10月11日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员