Recently, the pre-trained language model, BERT (Devlin et al.(2018)Devlin, Chang, Lee, and Toutanova), has attracted a lot of attention in natural language understanding (NLU), and achieved state-of-the-art accuracy in various NLU tasks, such as sentiment classification, natural language inference, semantic textual similarity and question answering. Inspired by the linearization exploration work of Elman (Elman(1990)), we extend BERT to a new model, StructBERT, by incorporating language structures into pretraining. Specifically, we pre-train StructBERT with two auxiliary tasks to make the most of the sequential order of words and sentences, which leverage language structures at the word and sentence levels, respectively. As a result, the new model is adapted to different levels of language understanding required by downstream tasks. The StructBERT with structural pre-training gives surprisingly good empirical results on a variety of downstream tasks, including pushing the state-of-the-art on the GLUE benchmark to 84.5 (with Top 1 achievement on the Leaderboard at the time of paper submission), the F1 score on SQuAD v1.1 question answering to 93.0, the accuracy on SNLI to 91.7.


翻译:最近,经过培训的语文模型BERT(Devlin等人(2018年),Devlin Devlin, Chang, Lee, 和Toutanova)在自然语言理解(NLU)方面引起了许多关注,并在各种非语言任务(如情绪分类、自然语言推断、语义文本相似和回答问题等)中实现了最新水平的准确性。在Elman的线性探索工作(Elman(1990年))的启发下,我们将BERT推广到一个新的模型StructBERT, 将语言结构纳入预培训。具体地说,我们预先培训StructBERT有两项辅助性任务,将语言顺序顺序顺序顺序顺序顺序的文字和句次顺序最优化,分别在文字和句次级别上利用语言结构。因此,新模型适应了下游任务所要求的不同语言理解程度。 结构培训前的StructBERT为一系列下游任务提供了令人惊讶的好的经验结果,包括将GLU基准上的最新技术推向84.5(SNI1,在提交SLI1至F1级的论文上的成绩上,在SLI1级第911级上,在提交SLI1级标准上,在SU1号上实现了。

2
下载
关闭预览

相关内容

BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Github项目推荐 | awesome-bert:BERT相关资源大列表
AI研习社
27+阅读 · 2019年2月26日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
12+阅读 · 2019年2月28日
VIP会员
Top
微信扫码咨询专知VIP会员