明天直播 | 忒修斯之BERT:通过渐进替换压缩模型

2020 年 11 月 3 日 微软研究院AI头条

明天(11月4日)20:00-20:30,加州大学圣迭戈分校博士生、微软亚洲研究院自然语言计算组实习生许灿文将在 B 站分享 EMNLP 2020 论文 “忒修斯之 BERT:通过渐进替换压缩模型”。






登录查看更多
0

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
专知会员服务
44+阅读 · 2020年12月20日
最新《Transformers模型》教程,64页ppt
专知会员服务
276+阅读 · 2020年11月26日
专知会员服务
16+阅读 · 2020年10月18日
模型优化基础,Sayak Paul,67页ppt
专知会员服务
74+阅读 · 2020年6月8日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
CVPR 2019 | 图像压缩重建也能抵御对抗样本
计算机视觉life
3+阅读 · 2019年4月26日
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
直播 | 训练深度脉冲神经网络
AI科技评论
6+阅读 · 2019年1月24日
谷歌BERT模型深度解析
AINLP
42+阅读 · 2018年11月15日
博客 | 谷歌最强 NLP 模型 BERT 解读
AI研习社
4+阅读 · 2018年10月28日
Arxiv
8+阅读 · 2020年10月9日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关VIP内容
专知会员服务
44+阅读 · 2020年12月20日
最新《Transformers模型》教程,64页ppt
专知会员服务
276+阅读 · 2020年11月26日
专知会员服务
16+阅读 · 2020年10月18日
模型优化基础,Sayak Paul,67页ppt
专知会员服务
74+阅读 · 2020年6月8日
相关资讯
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
16+阅读 · 2019年5月1日
CVPR 2019 | 图像压缩重建也能抵御对抗样本
计算机视觉life
3+阅读 · 2019年4月26日
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
直播 | 训练深度脉冲神经网络
AI科技评论
6+阅读 · 2019年1月24日
谷歌BERT模型深度解析
AINLP
42+阅读 · 2018年11月15日
博客 | 谷歌最强 NLP 模型 BERT 解读
AI研习社
4+阅读 · 2018年10月28日
相关论文
Arxiv
8+阅读 · 2020年10月9日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Top
微信扫码咨询专知VIP会员