参数少一半,效果还更好,天津大学和微软提出Transformer压缩模型

2019 年 7 月 17 日 微软研究院AI头条


编者按:由于在自然语言处理任务中的突出表现,基于Transformer的预训练语言模型是NLP领域的研究重点。考虑到模型参数量过大,导致其训练困难,部署不方便,研究人员一直在探究压缩模型的方法。近日,天津大学联合微软亚洲研究院提出了Transformer的压缩方法,不仅减少了近一半的参数量,模型在语言建模和神经机器翻译任务的表现也有所提升。这一研究可帮助在一些算力资源较小的环境中部署预训练语言模型。本文经授权转载自微信公众号“机器之心”。


引言


近来,预训练语言模型在很多NLP任务中表现良好。特别是基于Transformer的预训练语言模型,它完全基于自注意机机制,在自然语言处理(NLP)各项任务中取得了突破。


然而,在这些模型中,Transformer的核心结构——多头注意力机制限制了模型的发展。多头注意力机制本身带来大量的参数,这使得模型很难被训练,而部署模型、导入庞大数量的参数也需要较高的资源支持。因此,压缩大型神经预训练语言模型一直是NLP研究中的重要问题。


为了解决这一问题,基于张量分解和参数共享的思想,本文提出了多头线性注意力(Multi-linear attention),该模型主要使用了Block-Term Tensor Decomposition(BTD)张量分解技术。研究人员在语言建模任务及神经翻译任务上进行了测试,与许多语言建模方法相比,多头线性注意力机制不仅可以大大压缩模型参数数量,而且提升了模型的性能。


论文地址:https://arxiv.org/pdf/1906.09777.pdf


Transformer的张量化


在Transformer中,多头注意力是一个很重要的机制,由于Query、Key和Value在训练中会进行多次线性变换,且每个头的注意力单独计算,因此产生了大量的冗余参数。为了更好地压缩多头注意力机制中的参数,目前主要有两个挑战:


  • Transformer的自注意函数是非线性函数,难以压缩;


  • 压缩后的注意力模型难以直接集成到Transformer的编码器-解码器框架中。


为了解决这些问题,研究人员提出的方法结合了低秩近似和参数共享的思想,因此实现了更高的压缩比。虽然可以重建Transformer中的自注意力机制,但他们并没有这么做,而是选择了分割三阶张量(即多线性注意力的输出),这样更利于提高实验准确率。因为与重建Transformer中的自注意力相比,这种方法能够建模一个更完整信息分布, 也就是说Transformer中的注意力输出是该三阶张量的一个边际概率。


研究者采用的压缩方法如图所示:


  • 在图1(左)中,研究人员将多头注意力重建为一个单块注意力(Single-block attention),采用的Tucker分解是一种低秩分解方法。


  • 在图1(右)中,为了压缩多头注意力机制中的参数,研究人员提出了一种基于Block-Term张量分解的多线性注意力机制。这种机制在多个块之间共享因子矩阵(参数共享)。


图1:模型的压缩方法:左图为使用Tucker分解构建单块注意力。右图则构建了新的注意力机制——多头线性注意力。


压缩多头自注意力


模型压缩遇到的第一个问题是压缩多头自注意力中的参数数量。为了解决这个问题,研究人员首先证明了正交基向量可以线性地表示自注意力机制。然后,通过初始化低秩的核张量,重建新的注意力表示。为了构建多头注意力机制并压缩模型,他们使用了Block-Term张量分解(BTD),这是一种CP分解和Tucker分解的结合。Q、K、V在构建每个三阶张量的时候共享,因此可以降低许多参数。


图1(左)展示了单块注意机制的结构。首先,Query、Key和Value可以映射成三个因子矩阵Q、K、V,它们由三组正交基向量组成。然后通过初始化一个可训练的三阶对角张量G来构建一个新的注意力机制(单块注意机制)。在图1(左)中,R是张量的秩,N是序列的长度,d是矩阵的维数。利用Tucker分解,可以计算出单块注意力的表达式:



集成多头线性注意力


为了将压缩后的单块注意力张量集成在Transformer中,首先,研究人员计算了每个块张量的平均值。其次,将张量分割为矩阵,然后将这些矩阵级联,作为Transformer中下一层的输入,这样就可以集成在Transformer的编码器-解码器结构中。


在图1(右)中,为了完成多头机制并压缩多组映射参数的参数,研究人员使用一组线性映射,并共享线性映射的输出。所学习的线性投影可以将Query、Key和Value映射到由基向量组成的三个矩阵。在此基础上,利用Block-Term张量分解来建立多头机制。研究人员将这个模型命名为多线性注意力,可将其表示为:



这是一个压缩模型。在对Transformer的多头注意力进行压缩后,实现了张量化的Transformer。多线性注意力可以被融合到Transformer中。


实验结果


为了检验在Transformer中对多头注意力所作调整的效果,研究人员在语言模型(LM和神经机器翻译(NMT两个任务中进行了实验。


语言建模


语言建模的任务是预测句子中下一个单词。研究人员采用了语言建模的标准设置——根据前一个token预测下一个token。选择了小型数据集PTB,中型数据集WikiText-103和大型数据集One-Billion。在预处理中,所有单词变为小写。新行被替换<eos>。词汇表使用的是常见的单词,未出现的单词由[UNK]来表示。模型的评估基于困惑度(PPL),即每个单词的平均对数似然。PPL越低,模型越好。


实验采用了最新的开源语言建模体系结构Transformer,并将标准的多头注意力层替换为多线性注意力层。然后,我们在PTB、WikiText-103和One-Billian单词基准数据集上测试不同的模型配置,结果如表1和表2所示。


表1:在One-Billion数据集上,模型的参数数量和其困惑度分数。Core-1表示模型使用了单核张量。而Core-2表示使用了两个块张量(block term tensor)。


表2:在PTB和WikiText-103两个数据集上,模型的参数数量和其困惑度分数。「-」表示没有该模型的表现报告。「*」表示为研究人员自己实现的模型结果。


神经机器翻译


在这个任务中,研究人员在WMT 2016英译德数据集上对Transformer模型进行了训练。在实验中,使用多头线性注意力替换了每个注意层。为了评估,使用集束搜索,限定大小为5,长度惩罚α= 0.6。结果与Transformer进行了比较,如表3所示。*表示研究人员自己实现的结果。


表3:模型参数数量和对应的BLEU分数。









你也许还想看


感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。



登录查看更多
1

相关内容

【ACL2020-伯克利】预训练Transformer提高分布外鲁棒性
专知会员服务
19+阅读 · 2020年4月14日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
专知会员服务
44+阅读 · 2020年3月6日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
超越BERT、GPT,微软提出通用预训练模型MASS
机器之心
4+阅读 · 2019年5月10日
已删除
将门创投
11+阅读 · 2019年4月26日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2019年7月11日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关资讯
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
超越BERT、GPT,微软提出通用预训练模型MASS
机器之心
4+阅读 · 2019年5月10日
已删除
将门创投
11+阅读 · 2019年4月26日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
相关论文
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2019年7月11日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
Arxiv
6+阅读 · 2019年4月8日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
7+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员