A major challenge in deploying transformer models is their prohibitive inference cost, which quadratically scales with the input sequence length. This makes it especially difficult to use transformers for processing long sequences. To address this, we present a novel Learned Token Pruning (LTP) method that reduces redundant tokens as the data passes through the different layers of the transformer. In particular, LTP prunes tokens with an attention score below a threshold value, which is learned during training. Importantly, our threshold based method avoids algorithmically expensive operations such as top-k token selection which are used in prior token pruning methods, and also leads to structured pruning. We extensively test the performance of our approach on multiple GLUE tasks and show that our learned threshold based method consistently outperforms the prior state-of-the-art top-k token based method by up to ~2% higher accuracy with the same amount of FLOPs. Furthermore, our preliminary results show up to 1.4x and 1.9x throughput improvement on Tesla T4 GPU and Intel Haswell CPU, respectively, with less than 1% of accuracy drop (and up to 2.1x FLOPs reduction). Our code has been developed in PyTorch and has been open-sourced.


翻译:在部署变压器模型方面,一个重大挑战是其令人望而却步的推导成本,这种推导成本随输入序列长度的跨度而不同。这使得使用变压器处理长序列特别困难。为了解决这个问题,我们提出了一个小说Token Prurning (LTP) 方法,该方法随着数据通过变压器的不同层而减少多余的标牌。特别是,LTP Prunes 标记,其关注分数低于阈值,这是在培训期间学到的。 重要的是,我们基于阈值的方法避免了在算法上昂贵的操作,如在前代代代托盘处理方法中使用的顶级标牌选择,并导致结构化的裁剪裁。我们广泛测试了我们在多个 GLUE 任务上的方法的性能,并表明我们所学的门槛值始终高于先前的状态顶级标牌,其精度比限值要高出2%,与培训期间所学的数值相同。此外,我们的初步结果显示,Tesla T4 GPU 和 Intel Haswell CPU 和 Intel CPU, 已经分别开发了1.x 和FPRx 降低了1.x 。

0
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
44+阅读 · 2021年6月1日
专知会员服务
15+阅读 · 2020年7月27日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
198+阅读 · 2020年2月11日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
BERT 瘦身之路:Distillation,Quantization,Pruning
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Voxel Transformer for 3D Object Detection
Arxiv
1+阅读 · 2021年9月6日
Arxiv
0+阅读 · 2021年9月5日
Arxiv
15+阅读 · 2020年2月5日
Graph Transformer for Graph-to-Sequence Learning
Arxiv
4+阅读 · 2019年11月30日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
VIP会员
相关VIP内容
专知会员服务
33+阅读 · 2021年8月16日
专知会员服务
44+阅读 · 2021年6月1日
专知会员服务
15+阅读 · 2020年7月27日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
198+阅读 · 2020年2月11日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
Transformer中的相对位置编码
AINLP
5+阅读 · 2020年11月28日
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
BERT 瘦身之路:Distillation,Quantization,Pruning
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Top
微信扫码咨询专知VIP会员