Transformer and its variants have achieved great success in natural language processing. Since Transformer models are huge in size, serving these models is a challenge for real industrial applications. In this paper, we propose LightSeq, a highly efficient inference library for models in the Transformer family. LightSeq includes a series of GPU optimization techniques to both streamlining the computation of Transformer layers and reducing memory footprint. LightSeq supports models trained using PyTorch and Tensorflow. Experimental results on standard machine translation benchmarks show that LightSeq achieves up to 14x speedup compared with TensorFlow and 1.4x speedup compared with FasterTransformer, a concurrent CUDA implementation. The code has be released publicly in https://github.com/bytedance/lightseq.


翻译:变异器及其变异器在自然语言处理方面取得了巨大成功。 由于变异器模型规模巨大, 为这些模型服务是实行工业应用的挑战。 在本文中, 我们提出 LightSeq, 这是变异器大家庭中模型的高效推断库 。 LightSeq 包括一系列GPU优化技术, 以简化变异器层的计算和减少记忆足迹。 LightSeq 支持使用PyTorch 和 Tensorflow 培训的模型。 标准机器翻译基准的实验结果表明, LightSeq 实现了14x速度, 与 TensorFlow 和 1. 4x 速度相比, 与 Neatter Transforent( CUDA 的同步实施) 相比, 该代码已经公开发布在 https://github.com/bytedance/lightseq。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
应用机器学习书稿,361页pdf
专知会员服务
58+阅读 · 2020年11月24日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
【电子书推荐】Data Science with Python and Dask
专知会员服务
43+阅读 · 2019年6月1日
已删除
将门创投
9+阅读 · 2017年7月28日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
5+阅读 · 2020年3月16日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关资讯
已删除
将门创投
9+阅读 · 2017年7月28日
相关论文
Top
微信扫码咨询专知VIP会员