Pre-trained text encoders such as BERT and its variants have recently achieved state-of-the-art performances on many NLP tasks. While being effective, these pre-training methods typically demand massive computation resources. To accelerate pre-training, ELECTRA trains a discriminator that predicts whether each input token is replaced by a generator. However, this new task, as a binary classification, is less semantically informative. In this study, we present a new text encoder pre-training method that improves ELECTRA based on multi-task learning. Specifically, we train the discriminator to simultaneously detect replaced tokens and select original tokens from candidate sets. We further develop two techniques to effectively combine all pre-training tasks: (1) using attention-based networks for task-specific heads, and (2) sharing bottom layers of the generator and the discriminator. Extensive experiments on GLUE and SQuAD datasets demonstrate both the effectiveness and the efficiency of our proposed method.


翻译:培训前的文本编码器,如BERT及其变体,最近在许多NLP任务上取得了最先进的成绩。这些培训前的方法虽然有效,但通常需要大量的计算资源。为加快培训前,ELECTRA培训了一名导师,该导师预测每个输入符号是否由一个发电机取代。然而,作为一项二进制分类,这一新的任务较少包含语义信息。在本研究中,我们提出了一个新的文本编码器培训前方法,根据多任务学习改进ELECTRA。具体地说,我们培训导师,以便同时检测替代的标牌,并从候选组中选择原始标牌。我们进一步开发了两种技术,以有效地将所有培训前的任务结合起来:(1) 利用关注网络,具体任务负责人,(2) 分享发电机和导师的底层。关于GLUE和SQUAD数据集的广泛实验显示了我们拟议方法的有效性和效率。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
312+阅读 · 2020年11月26日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
79+阅读 · 2020年7月26日
【论文推荐】文本摘要简述
专知会员服务
69+阅读 · 2020年7月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
49+阅读 · 2020年7月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
ELECTRA:超越BERT,19年最佳NLP预训练模型
新智元
6+阅读 · 2019年11月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
4+阅读 · 2019年12月2日
Arxiv
5+阅读 · 2019年8月22日
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
6+阅读 · 2019年3月19日
VIP会员
Top
微信扫码咨询专知VIP会员