EMNLP2020 tutorial | 高性能自然语言处理

2020 年 11 月 28 日 AINLP

今天分享的是华盛顿大学谷歌研究院在 EMNLP 2020 上的tutorial,主题是关于高性能NLP的前沿进展。该tutorial长达274页ppt,广泛介绍了各种提高NLP效率的技术,包括知识蒸馏、量化、剪枝、更高效的架构,以及案例研究和实际实现中各种奇技淫巧。

简介

近年来,规模(Scale)这个词在自然语言处理的快速发展中起着关键作用。虽然各种基准测试(benchmarks)已经被越来越大的模型所主导,但如何高效利用有限的硬件资源对于这些大模型的广泛采用和在该领域的进一步发展至关重要。EMNLP 2020 的这个前沿tutorial中,演讲嘉宾先简要概括了自然语言处理中的最先进技术,并在建立这些基础之后,广泛介绍了各种提高效率的技术,包括知识蒸馏、量化、修剪、更高效的架构,以及案例研究和实际实现中各种奇技淫巧。

由于篇幅较大,这里以知识导图形式展现核心的几个方面,完整的274页ppt下载请关注小窗幽记机器学习公众号后台回复“高效” 就可以获取《EMNLP2020 tutorial | 高性能自然语言处理》



由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方"AINLP",进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

欢迎加入AINLP技术交流群
进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注NLP技术交流

推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)

从数据到模型,你可能需要1篇详实的pytorch踩坑指南

如何让Bert在finetune小数据集时更“稳”一点

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,分享、点赞、在看三选一吧🙏


登录查看更多
0

相关内容

自然语言处理顶级会议
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
专知会员服务
19+阅读 · 2020年10月13日
【新书】自然语言处理表示学习技术,349页pdf,清华大学
专知会员服务
174+阅读 · 2020年7月11日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
214+阅读 · 2020年4月26日
2019年新书-《基于PyTorch的自然语言处理》pdf免费分享
深度学习与NLP
90+阅读 · 2019年10月15日
【自然语言处理】清华刘知远55页自然语言处理PPT
产业智能官
19+阅读 · 2019年8月23日
职播间 | 从0到1构建聊天机器人
AI研习社
5+阅读 · 2018年10月30日
Arxiv
1+阅读 · 2021年1月26日
Compression of Deep Learning Models for Text: A Survey
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关论文
Arxiv
1+阅读 · 2021年1月26日
Compression of Deep Learning Models for Text: A Survey
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年1月18日
Arxiv
6+阅读 · 2017年12月7日
Top
微信扫码咨询专知VIP会员