BERT一作Jacob Devlin斯坦福演讲PPT:BERT介绍与答疑

2019 年 3 月 7 日 专知

【导读】前不久,斯坦福NLP组,邀请BERT模型的第一作者Jacob Devlin到斯坦福做讲座,Devlin在讲座上详细介绍了BERT的研究过程,并解答了大量关于BERT的问题,小编收集到该PPT, 分享给大家。


 请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“BERT-PPT” 就可以获取该PPT的下载链接~ 


-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!500+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
49

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【Facebook AI】低资源机器翻译,74页ppt
专知会员服务
29+阅读 · 2020年4月8日
【课程】伯克利2019全栈深度学习课程(附下载)
专知会员服务
56+阅读 · 2019年10月29日
【课程】浙大陈华钧教授《知识图谱导论》课程系列PPT
专知会员服务
170+阅读 · 2019年10月29日
以BERT为例,如何优化机器学习模型性能?
专知
10+阅读 · 2019年10月3日
【资源】最新BERT相关论文清单汇总
专知
33+阅读 · 2019年10月2日
深度学习了解一下(附53页Slides)
专知
48+阅读 · 2019年5月20日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
自然语言处理(NLP)前沿进展报告(PPT下载)
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关论文
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
10+阅读 · 2018年3月22日
Top
微信扫码咨询专知VIP会员