ACL’22 | 为大模型定制的数据增强方法FlipDA,屠榜六大NLU 数据集!

2022 年 4 月 13 日 夕小瑶的卖萌屋

文 | ZenMoore
编 | 小轶

今天由一篇清华大学发表于 ACL'22 的最新论文说起,一起探讨一下:大模型时代,我们该如何进行数据增强

大家可能都多少了解一些传统的数据增强方法,比如回译、对抗生成等等。但考虑到这些方法提出的年份较早,它们只在一些传统的(如今看来比较弱的)基准模型上证明有效。而且,大多数据增强的工作也都只针对一些比较简单的任务场景进行实验,比如简单的句子分类任务。

时过境迁,在如今大模型当道的时代背景下,我们可能得重新审视一下现有的数据增强方法。要知道,这些大规模语言模型性能远超传统模型;它们在简单的分类数据集上,刷到95%以上的准确率完全不在话下。今天要分享的这篇文章中,作者也通过实验证明了:对于大规模预训练模型,采用的传统数据增强方法最多只能获得极小的边际收益,甚至有时会使性能下降

为此,作者想要探究:针对大规模语言模型,在较为困难的任务场景下,有什么更为有效鲁棒的数据增强方法吗?所谓有效(effectiveness) ,就是要能显著提升性能。所谓 鲁棒(robustness),就是要能在所有场景下都能够稳定提升。

简单来说,本文的核心观点在于:标签翻转 (label-flipped)的增强样本对大模型的性能提升最为明显。基于此,他们提出了数据增强方法 FlipDA。

标签翻转:即增强后的新样本标签与原样本的标签不同。

论文标题
FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning

论文作者
Jing Zhou, Yanan Zheng, Jie Tang, Jian Li, Zhilin Yang

论文链接
http://keg.cs.tsinghua.edu.cn/jietang/publications/ACL22-Zhou-et-al-FlipDA.pdf

代码链接
https://github.com/zhouj8553/FlipDA

标签翻转的增强样本

作者首先通过人工设计了少量标签翻转 (label-flipped) 的数据样本和标签保留 (label-preserved) 的样本,然后比较两者在多个任务上的效果:

结果发现,标签翻转在多个任务上,竟然能超出将近 10 个点!虽然这部分实验只采用了一小部分人工设计的增强样本,结论有一定局限性,但显然还是值得进一步分析和研究的。

经过分析,作者认为标签保留的数据增强主要有两个问题:

(1) 数据增强导致语法错误(这一点尤其重要)

(2)数据增强导致关键信息丢失

作者认为,这是由于标签翻转的增强样本,更能够使模型学习到哪些才是文本中的关键部分。

▲标签翻转的增强样本示例

总之,基于以上实验结果和分析,作者认为可以假设:相比于标签保留的数据增强方式,标签翻转的方式更加有效且鲁棒。于是,他们根据这一假设提出了 FlipDA 的数据增强方法,并进行了大量实验分析。

FlipDA

  1. 首先使用 BERT 等训练一个标签分类器
  2. 然后,使用 T5 模型生成新的增强数据:将 使用类似于[1]中的 prompt 的方式拼接起来作为 input, 随机 mask 掉一些 input tokens, 使用 T5 模型预测这些 mask 从而生成新的样本(这种方法称为: Pattern-based Data Cloze)。这样,对于每个训练样本 ,可以生成一个新样本集合
  3. 在分类器 的帮助下筛选新样本:对于原样本 , 我们有了新样本集 , 这个 里面包含了一些标签翻转数据(即: ), 我们分类器 把它们挑出来得到 。最后再挑出置信度最高的那部分 ,就是针对原样本 生成的增强样本。

实际操作中,除了标签翻转的增强数据,再加少量标签保留的增强数据也是有益的。

  1. 使用原样本+增强样本重新训练分类器。

实验

实验任务

实验主要在 FewGLUE([1], 也就是 SuperGLUE 的 few-shot 版本) 上进行。包含 question answering, textual entailment, co-reference resolution, causal reasoning and word sense disambiguation 等 7 项任务。

Baseline

  1. 同义词替换:使用 WordNet 中的同义词替换
  2. KNN 替换:使用 GloVe 选择最相似的单词之一进行替换
  3. EDA(Easy Data Augmentation) : 同时使用同义词替换、随机插入、随机置换、随机删除
  4. 回译(back translation)
  5. TinyBERT : 使用 BERT 预测出的 token 或者 GloVe 导出的词汇进行替换
  6. T5-MLM : 和本文方法大体相同,但是该方法是标签保留的数据增强,而且没有后面的筛选步骤
  7. MixUP : 在特征空间进行增强(如采用特征空间中两个样本之间的线性插值)

模型

  1. ALBERT-xxlarge-v2
  2. DeBERTa-xxlarge-v2

评测指标

  1. 有效性:accuracy,f1, em (exact-match)
  2. 鲁棒性:MaxDrop (MD)

这里作者提出了 MaxDrop 专门用来衡量鲁棒性:

对于多个任务 、待测方法 method 以及 baseline :

这个值越小,代表模型越鲁棒。

对比实验

可以看到,FlipDA 方法无论在有效性上还是鲁棒性上都有 SOTA 的性能。

消融实验

FlipDA 主要核心是下面两步:

  1. Pattern-based Data Cloze:本文采用该方法生成增强样本。
  2. 使用分类器进行数据筛选。

下面分别进行消融实验:

可以看到,

  1. Pattern-based Data Cloze 在所有任务上都是有效的,因为它可以有效减少语法错误,更加兼容标签翻转方式。
  2. 分类器筛选在大多数任务上有效,但是对于下面这些任务或增强样本生成方式,需要另外的思考:
    • 使用 BT (回译)数据进行增强,缺少数据多样性,使用分类器筛选会进一步降低多样性,因此不一定有效
    • 对于词义消歧或者因果推理任务,因为需要预测多个 tokens, 所以生成标签翻转数据会更加困难一些,也不一定有效。

另外,标签翻转+标签保留相比于只使用标签保留的数据增强具有更好的效果:

标签翻转的方向

标签翻转的方向也是需要考虑的点,比如对于是否类的问答任务,生成答案为“否”的数据相对更加容易一些。但是,只有同时具有多个方向的标签翻转增强数据,才更有可能超越 baseline 的性能。

样本选择策略

  1. Default : 即上文所述的样本选择方法。
  2. Global TopK : 选择概率最大的前 K 个样本
  3. Global TopP : 选择概率大于阈值 P 的样本
  4. Diverse TopK : 先在每个原样本对应的增强样本中选择 top-1, 然后依次选择 top-2, top-3 等等,一直选到 top-k,这个策略主要出于原样本上的数据平衡的考量。

实验表明,默认策略或者 Diverse TopK 更好一些。

写在后面

不得不说,这种标签翻转的数据增强方法,其实和对比学习多少有些神似。只不过,前者是在数据端进行对比增强,后者更多的是在损失端进行对比增强。

也许,这会给我们发扬光大对比学习思想带来新的启发~ 也会促进我们思考更加适配于大模型的一些训练、数据增强策略。

萌屋作者:ZenMoore

北航本科生🧐,爱数学爱物理爱 AI🌸 想从 NLP 出发探索人工认知人工情感的奥秘🧠🤖!个人主页🌎 zenmoore.github.io 知乎🤔 ZenMoore, 微信📩 zen1057398161 嘤其鸣矣,求其友声✨!

作品推荐

  1. 一文跟进Prompt进展!综述+15篇最新论文逐一梳理
  2. 图灵奖大佬+谷歌团队,为通用人工智能背书!CV 任务也能用 LM 建模!
  3. 以4%参数量比肩GPT-3!Deepmind 发布检索型 LM,或将成为 LM 发展新趋势!?

后台回复关键词【入群

加入卖萌屋NLP、CV与搜推广与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

 

[1] T. Schick and H. Schutze. It’s not just size that matters: Small language models are also few-shot learners. ArXiv, abs/2009.07118, 2021

登录查看更多
1

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
CVPR2022 | 一种适用于密集场景的渐进式端到端目标检测器
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
34+阅读 · 2020年11月29日
专知会员服务
18+阅读 · 2020年10月13日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
有效且稳健的数据增强小样本学习 | 论文荐读
学术头条
6+阅读 · 2022年3月25日
小样本自然语言理解的基准测试FewNLU | 论文荐读
学术头条
1+阅读 · 2022年3月23日
从 ACL’22 投稿情况,速览当下 NLP 研究热点!
夕小瑶的卖萌屋
0+阅读 · 2021年12月7日
哈工大|NLP数据增强方法?我有15种
哈工大SCIR
1+阅读 · 2021年10月13日
基于编辑方法的文本生成(上)
哈工大SCIR
0+阅读 · 2021年6月30日
一种小目标检测中有效的数据增强方法
极市平台
117+阅读 · 2019年3月23日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
0+阅读 · 2022年4月14日
VIP会员
相关VIP内容
相关资讯
有效且稳健的数据增强小样本学习 | 论文荐读
学术头条
6+阅读 · 2022年3月25日
小样本自然语言理解的基准测试FewNLU | 论文荐读
学术头条
1+阅读 · 2022年3月23日
从 ACL’22 投稿情况,速览当下 NLP 研究热点!
夕小瑶的卖萌屋
0+阅读 · 2021年12月7日
哈工大|NLP数据增强方法?我有15种
哈工大SCIR
1+阅读 · 2021年10月13日
基于编辑方法的文本生成(上)
哈工大SCIR
0+阅读 · 2021年6月30日
一种小目标检测中有效的数据增强方法
极市平台
117+阅读 · 2019年3月23日
相关基金
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员