近年来,自然语言处理(NLP)和信息检索(IR)领域取得了巨大的进展,这要归功于深度学习模型,如回归神经网络(RNNs)、门控回归单元(GRUs)和长短时记忆(LSTMs)网络,以及基于Transformer (Vaswani et al., 2017)的双向编码器表示模型(BERT) (Devlin et al., 2018)。但这些模型都是巨大的。另一方面,现实世界的应用程序要求较小的模型尺寸、低响应时间和低计算功率。在这个综述中,我们讨论了六种不同类型的方法(剪枝、量化、知识蒸馏、参数共享、张量分解和基于线性变压器的方法)来压缩这些模型,使它们能够在实际的工业NLP项目中部署。考虑到构建具有高效和小型模型的应用程序的迫切需要,以及最近在该领域发表的大量工作,我们相信,本论文调研组织了“NLP深度学习”社区在过去几年里所做的大量工作,并将其作为一个连贯的故事呈现出来。

https://www.zhuanzhi.ai/paper/3fba50f6f54fa8722b1c7fd56ec0bcfb

成为VIP会员查看完整内容
25

相关内容

最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
76+阅读 · 2020年10月13日
最新《深度学习视频异常检测》2020综述论文,21页pdf
专知会员服务
84+阅读 · 2020年9月30日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
179+阅读 · 2020年9月7日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
专知会员服务
199+阅读 · 2020年3月6日
最新《分布式机器学习》论文综述最新DML进展,33页pdf
专知会员服务
118+阅读 · 2019年12月26日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
从0到1,这篇深度学习综述送给你!
机器学习算法与Python学习
27+阅读 · 2018年6月13日
Compression of Deep Learning Models for Text: A Survey
Arxiv
4+阅读 · 2019年4月17日
Arxiv
19+阅读 · 2019年4月5日
VIP会员
相关VIP内容
最新《知识驱动的文本生成》综述论文,44页pdf
专知会员服务
76+阅读 · 2020年10月13日
最新《深度学习视频异常检测》2020综述论文,21页pdf
专知会员服务
84+阅读 · 2020年9月30日
最新《深度持续学习》综述论文,32页pdf
专知会员服务
179+阅读 · 2020年9月7日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
专知会员服务
199+阅读 · 2020年3月6日
最新《分布式机器学习》论文综述最新DML进展,33页pdf
专知会员服务
118+阅读 · 2019年12月26日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
微信扫码咨询专知VIP会员