芝麻街跨界NLP,没有一个ERNIE是无辜的

2020 年 4 月 25 日 AINLP


之前发在知乎、AINLP以及CSDN上的预训练模型系列文章,最近打算整理到公号上。另外欢迎大家左下角阅读原文关注我的知乎专栏:【BERT巨人肩膀】


这篇文章会为大家介绍下同名的"ERNIE"小伙伴们,在预训练模型的飞速发展下,芝麻街恐成最大赢家

ERNIE: Enhanced Language Representation with Informative Entities(THU)[1]

本文的工作也是属于对BERT锦上添花,将知识图谱的一些结构化信息融入到BERT中,使其更好地对真实世界进行语义建模。也就是说,原始的bert模型只是机械化地去学习语言相关的“合理性”,而并学习不到语言之间的语义联系,打个比喻,就比如掉包xia只会掉包,而不懂每个包里面具体是什么含义。于是,作者们的工作就是如何将这些额外的知识告诉bert模型,而让它更好地适用于NLP任务。

但是要将外部知识融入到模型中,又存在两个问题:

  • 「Structured Knowledge Encoding:」  对于给定的文本,如何高效地抽取并编码对应的知识图谱事实;
  • 「Heterogeneous Information Fusion:」 语言表征的预训练过程和知识表征过程有很大的不同,它们会产生两个独立的向量空间。因此,如何设计一个特殊的预训练目标,以融合词汇、句法和知识信息又是另外一个难题。

为此,作者们提出了ERNIE模型,同时在大规模语料库和知识图谱上预训练语言模型:

  1. 「抽取+编码知识信息:」 识别文本中的实体,并将这些实体与知识图谱中已存在的实体进行实体对齐,具体做法是采用知识嵌入算法(如TransE),并将得到的entity embedding作为ERNIE模型的输入。基于文本和知识图谱的对齐,ERNIE 将知识模块的实体表征整合到语义模块的隐藏层中。
  2. 「语言模型训练:」  在训练语言模型时,除了采用bert的MLM和NSP,另外随机mask掉了一些实体并要求模型从知识图谱中找出正确的实体进行对齐(这一点跟baidu的entity-masking有点像)。

okay,接下来看看模型到底长啥样?如上图,整个模型主要由两个子模块组成:

  • 底层的 「textual encoder (T-Encoder)」,用于提取输入的基础词法和句法信息,N个;
  • 高层的 「knowledgeable encoder (K-Encoder)」, 用于将外部的知识图谱的信息融入到模型中,M个。

knowledgeable encoder

这里T-encooder跟bert一样就不再赘述,主要是将文本输入的三个embedding加和后送入双向Transformer提取词法和句法信息:

K-encoder中的模型称为aggregator,输入分为两部分:

  • 一部分是底层T-encoder的输出
  • 一部分是利用TransE算法得到的文本中entity embedding,
  • 注意以上为第一层aggregator的输入,后续第K层的输入为第K-1层aggregator的输出

接着利用multi-head self-attention对文本和实体分别处理:

然后就是将实体信息和文本信息进行融合,实体对齐函数为 :

  • 对于有对应实体的输入:
  • 对于没有对应实体的输入词:

上述过程就是一个aggregator的操作,整个K-encoder会叠加M个这样的block:

最终的输出为最顶层的Aggregator的token embedding和entity embedding。

改进的预训练

除了跟bert一样的MLM和NSP预训练任务,本文还提出了另外一种适用于信息融合的预训练方式,「denoising entity auto-encoder (dEA).」 跟下文baidu的还是有点不一样,这里是有对齐后的entity sequence输入的,而百度的是直接去学习entity embedding。dEA 的目的就是要求模型能够根据给定的实体序列和文本序列来预测对应的实体:

微调

为了使得模型可以更广泛地适用于不同的NLP任务,作者也学习BERT设计了不同的特殊的token:

  • 【CLS】:该token含有句子信息的表示,可适用于一般任务
  • 【HD】和【TL】:该token表示关系分类任务中的头实体和尾实体(类似于传统关系分类模型中的位置向量),然后使用【CLS】来做分类;
  • 【ENT】:该token表示实体类型,用于entity typing等任务。 试验部分也略过了哈~感觉有些部分还不是很清晰,需要看看源码...

reference

  • ACL 2019将会有哪些值得关注的论文? [2]
  • ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT [3]
  • ACL 2019 | 清华等提出ERNIE:知识图谱结合BERT才是「有文化」的语言模型 [4]
  • 官方源码 [5]

ERNIE: Enhanced Representation through Knowledge Integration(Baidu)[6]

百度提出的ERNIE模型主要是针对BERT在中文NLP任务中表现不够好提出的改进。我们知道,对于中文,bert使用的基于字的处理,在mask时掩盖的也仅仅是一个单字,举个栗子:

我在上海交通大学玩泥巴-------> 我 在 上 【mask】 交 通 【mask】学 玩 【mask】 巴。

作者们认为通过这种方式学习到的模型能很简单地推测出字搭配,但是并不会学习到短语或者实体的语义信息, 比如上述中的【上海交通大学】。于是文章提出一种知识集成的BERT模型,别称ERNIE。ERNIE模型在BERT的基础上,加入了海量语料中的实体、短语等先验语义知识,建模真实世界的语义关系。

在具体模型的构建上,也是使用的Transformer作为特征抽取器。这里如果对于特征抽取不是很熟悉的同学,强烈推荐张俊林老师的"放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较[7]"。

那么怎么样才能使得模型学习到文本中蕴含的潜在知识呢?不是直接将知识向量直接丢进模型,而是在训练时将短语、实体等先验知识进行mask,强迫模型对其进行建模,学习它们的语义表示。具体来说, ERNIE采用三种masking策略:

  • 「Basic-Level Masking:」 跟bert一样对单字进行mask,很难学习到高层次的语义信息;
  • 「Phrase-Level Masking:」 输入仍然是单字级别的,mask连续短语;
  • 「Entity-Level Masking:」 首先进行实体识别,然后将识别出的实体进行mask。

经过上述mask训练后,短语信息就会融入到word embedding中了此外,为了更好地建模真实世界的语义关系,ERNIE预训练的语料引入了多源数据知识,包括了中文维基百科,百度百科,百度新闻和百度贴吧(可用于对话训练)。

关于论文后面的试验就不再赘述。

reference:

  • 如何评价百度新发布的NLP预训练模型ERNIE? [8]
  • 中文任务全面超越 BERT:百度正式发布NLP预训练模型ERNIE [9]
  • 官方源码 [10]

ERNIE2.0: A Continual Pre-training Framework for Language Understanding[11]

Baidu团队之前发布的ERNIE1.0效果就不错,虽然基础框架沿袭BERT,但是训练语料以及mask策略的改进,使其在中文任务上表现更好。这刚过了几个月,又发布了增强版的ERNIE,最近NLP社区更新速度可见一斑。先前的模型比如ELMO、GPT、BERT、ERNIE1.0、XLNet等都是基于词和句子的共现关系来训练的,这导致模型不能够很好地建模词法、句法以及语义信息。为此,ERNIE2.0提出了「通过不断增量预训练任务进行多任务学习」来将词法句法以及语义信息融入到模型当中去。整体流程如下所示,首先利用简单的任务初始化模型,接着以串行的方式进行「持续学习(Continual Learning)」,对于每次新增的训练任务,模型可以利用之前已经训练过的任务信息去更好地学习新任务,这跟人类的学习方式是一样的。

模型框架

整体框架还是基本跟ERNIE1.0的一样,不过ERNIE2.0为了匹配多任务持续学习的理念,需要在输入的时候额外增加一部分「Task Embedding」,用来告诉模型这是在处理哪个任务。

预训练任务

前面说到要让模型获取词法、句法以及语义的信息,那么怎么设计合适的预训练任务就成了非常重要的一环。其实BERT本身也可以看做是多任务(MLM+NSP),然后对于扩展BERT至多任务,MTDNN也有过尝试,使用了GLUE相似的任务进行训练然后在GLUE上SOTA了。不过ERNIE2.0与MTDNN在任务设计上不同的是,在预训练阶段使用的任务基本都是无监督或者是弱监督的。要知道在NLP中有标注的数据不多,但是无标注的数据可以说是源源不断,如果能好好利用起来简直功德圆满。okay,下面我们来介绍一下具体的任务设计

Word-aware Pre-training Tasks

基于单词的预训练任务用于获取词法信息

  • 「Knowledge Masking Task:」 就是ERNIE1.0使用的预训练任务,将实体与短语进行mask,具体可以上文
  • 「Capitalization Prediction Task:」 预测单词是否大写。因为在语料中大写字词通常具有特殊含义
  • 「Token-Document Relation Prediction Task :」 预测某一个段落的token是否出现在同一篇文档的另外段落中。可以认为是对关键字进行建模
Structure-aware Pre-training Tasks

主要是用于建模句法信息

  • 「Sentence Reordering Task:」 具体而言是把一段话拆分成多个segment,之后对其进行排列组合,让模型去预测正确的原始顺序。感觉有点像高中英语试卷大作文前面的那一题hhh...
  • 「Sentence Distance Task:」 预测句子之间的距离,可以看做是三分类的任务,其中“0”表示两个句子是同一篇文档中相邻的,“1”表示两个句子在同一篇文档中但是不相邻,“2”表示两个句子不在同一个文档中。这个任务的话可以看做是BERT的NSP任务的扩展版
Semantic-aware Pre-training Tasks

主要用于建模语法信息

  • 「Discourse Relation Task:」 预测两个句子之间的语义或修辞关系。
  • 「IR Relevance Task :」 学习信息检索中短文本的相关性。百度作为搜索引擎的优势就是有大量的 「query」「answer」可以用于模型训练。这也是一个三分类的任务,输入为 query+title,输出为标签,其中“0”表示这两个是强相关的(定义为用户点击的结果条目),“1”表示弱相关(定义为搜索返回结果中不被用户点击的条目),“2”表示不相关(定义为没有出现在返回结果里的条目)

模型效果

okay,介绍完模型,我们来看看效果怎么样~ERNIE2.0以及BERT在GLUE上的表现,可以看出基本在所有任务上ERNIE2.0的效果都超过了原始的BERT和XLNet。这是中文数据集上的模型比对效果,目前中文版的模型好像还没有发布出来

reference

  • 官方开源代码 [12]
  • 如何评价百度最新发布的ERNIE2.0? [13]
  • ERNIE 2.0:芝麻街 2.0? [14]

ERNIE-Tiny

ERNIE-Tiny也是baidu的工作,在一波模型轻量化的风潮之下(更小的模型!迈向更快更环保的NLP),好多预训练模型都出现了XXX-Tiny的延伸,旨在提升预训练模型在实际工程应用中的落地能力。相较于base模型,ERNIE-Tiny采用了以下4点技术,保证了在实际真实数据中将近4.3倍的预测提速。

更浅的模型

最直观的想法就是直接截取base模型的前几层进行下游任务的finetune,但是这样会造成pretrain-finetune discrepancy。因此需要重新训练一个浅层的模型,将12层的ERNIE Base模型直接压缩为3层,线性提速4倍,但效果也会有较大幅度的下降;

更大的hidden_size

为了弥补模型变浅带来的效果下降,这里将原始的hidden_size由768提升至1024,你看这模型它又矮又胖

subword词粒度

transformer-based模型预测时间性能与输入长度线性相关,通过subword粒度替换字(char)粒度,能够明显地缩短输入文本的长度。统计表明,在XNLI dev集上采用subword字典切分出来的序列长度比字表平均缩短40%。

知识蒸馏

为了进一步提升模型的效果,ERNIE Tiny扮演学生角色,利用模型蒸馏的方式在Transformer层和Prediction层去学习教师模型ERNIE模型对应层的分布或输出,这种方式能够缩近ERNIE Tiny和ERNIE的效果差异。

reference

  • ERNIE-tiny GITHUB [15]

ERNIE-GEN

ERNIE-GEN也是baidu的ERNIE套餐之一,看名字就知道是把ERNIE用在生成任务上的,论文在今年一月就放出来了,说的也都是SOTA,但是好像一直也没见宣传和讨论。这里篇幅原因先不展开了,感兴趣可以去了解下。

ERNIE-Classification

这是一个github项目,基于Keras/TensorFlow 2以及HuggingFace's Transformers,集成多个bert-based模型用于句子分类,有需要的可以试试效果。

本文参考资料

[1]

ERNIE: Enhanced Language Representation with Informative Entities(THU/ACL2019): https://arxiv.org/pdf/1905.07129.pdf

[2]

ACL 2019将会有哪些值得关注的论文?: https://www.zhihu.com/question/324223170/answer/686289852

[3]

ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT: http://mrw.so/4J6Bgi

[4]

ACL 2019 | 清华等提出ERNIE:知识图谱结合BERT才是「有文化」的语言模型: https://www.jiqizhixin.com/articles/2019-05-26-4

[5]

官方源码: https://github.com/thunlp/ERNIE

[6]

ERNIE: Enhanced Representation through Knowledge Integration(Baidu/2019): https://arxiv.org/pdf/1904.09223.pdf

[7]

放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较: https://zhuanlan.zhihu.com/p/54743941

[8]

如何评价百度新发布的NLP预训练模型ERNIE?: https://www.zhihu.com/question/316140575

[9]

中文任务全面超越 BERT:百度正式发布NLP预训练模型ERNIE: https://www.jiqizhixin.com/articles/2019-03-16-3

[10]

官方源码: https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE

[11]

ERNIE2.0: A Continual Pre-training Framework for Language Understanding: https://pdfs.semanticscholar.org/9025/1aa6225fcd5687542eab5819db18afb6a20f.pdf?_ga=2.6153395.1282941031.1565490089-793294112.1556434811

[12]

官方开源代码: https://github.com/PaddlePaddle/ERNIE

[13]

如何评价百度最新发布的ERNIE2.0?: https://www.zhihu.com/question/337827682

[14]

ERNIE 2.0:芝麻街 2.0?: https://zhuanlan.zhihu.com/p/76125042

[15]

ERNIE-tiny GITHUB: https://github.com/PaddlePaddle/ERNIE/blob/develop/README.zh.md#ernie-tiny

- END -


推荐阅读

AINLP年度阅读收藏清单

百度PaddleHub NLP模型全面升级,推理性能提升50%以上

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

From Word Embeddings To Document Distances 阅读笔记

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

可解释性论文阅读笔记1-Tree Regularization

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


登录查看更多
0

相关内容

【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
89+阅读 · 2020年7月23日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
【复旦大学-SP2020】NLP语言模型隐私泄漏风险
专知会员服务
24+阅读 · 2020年4月20日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
139+阅读 · 2020年3月1日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
我跑了ERNIE和BERT两个模型,结果出乎意料......
PaperWeekly
21+阅读 · 2019年6月24日
站在BERT肩膀上的NLP新秀们:XLMs、MASS和UNILM
PaperWeekly
16+阅读 · 2019年6月6日
站在BERT肩膀上的NLP新秀们(PART I)
AINLP
30+阅读 · 2019年6月4日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
12+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
Top
微信扫码咨询专知VIP会员