ALBERT第一作者亲自讲解:词向量、BERT、ALBERT、XLNet全面解析

2020 年 2 月 12 日 机器之心

机器之心发布

机器之心编辑部
现在是国家的非常时期,由于疫情各地陆续延迟复工,以及各大院校延期开学。 作为一家 AI 教育领域的创业公司,贪心学院筹划了5期NLP专题直播课程,希望在这个非常时期做点有价值的事情,并携手共渡难关。

在疫情期间,贪心学院联合国内外顶尖 AI 专家一起筹划「共同战疫,贪心在行动」的计划,提供重磅级 NLP 专题系列直播课程,共五次课程,为期两周时间,供大家在线学习,全程免费。

NLP 专题课

这次的专题我们选择了近几年 NLP 领域最火的,你不得不了解的话题 -」预训练模型「。 从简单的 Word2Vec,ELMo,GPT,BERT,XLNet 到 ALBERT , 这几乎是 NLP 过去 10 年最为颠覆性的成果。 作为一名 AI 从业者,或者未来想步入 AI 领域的人士,这是一门必修课。 在本次专题活动,我们会由浅入深地按照知识点的学习路径来给大家讲解每个技术背后的原理、细节以及应用。

本次的专题课程,我们也有幸邀请到了多位国内外 NLP 领域的专家,其中 蓝振忠博士作为 ALBERT 模型的第一作者,会亲自讲述当初对这份工作背后的思考以及技术细节。 希望通过本次活动,给大家带来一些认知上的收获,在疫情期间也可以充实自我,武汉加油,中国加油!

下面是关于本次专题课程的详细介绍以及安排,你可以通过扫描下方的二维码来进行报名。


本次专题活动除了贪心科技的创始人,我们还联合了国内外多位 NLP 领域专家,包括蓝振忠(ALBERT 模型第一作者,Google Lab 科学家,卡耐基梅隆大学博士),葛瀚骋(Amazon Alexa 部门科学家,Texas A&M 大学博士),袁源(美国微软推荐系统主管,新泽西理工博士)。


对于本次的专题内容,会从词向量,LSTM,Seq2Seq,注意力机制开始逐步讲解到 ELMo,Transformer,BERT,XLNET,ALBERT。 这是一次体系化的专题课程,区别于常见的公开课,希望通过两周的时间让听众对这个领域有直观的认知。

本次直播分5大主题,为期两周时间:


点击「阅读原文」或扫描下方二维码,进一步了解课程详情。




文为机器之心发布,转载请联系本公众号获得授权
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
投稿或寻求报道:content @jiqizhixin.com
广告 & 商务合作:bd@jiqizhixin.com
登录查看更多
0

相关内容

 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
61+阅读 · 2020年3月4日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
78+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
69+阅读 · 2020年1月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
24+阅读 · 2019年11月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
英伟达Faster Transformer:作者带你揭秘BERT优化
机器之心
14+阅读 · 2019年9月18日
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
图解2018年领先的两大NLP模型:BERT和ELMo
新智元
9+阅读 · 2018年12月14日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
课程 |《知识图谱》第一期
开放知识图谱
22+阅读 · 2017年10月15日
课程 | 推荐系统资深架构师在这里等你!
AI研习社
3+阅读 · 2017年9月7日
Arxiv
5+阅读 · 2019年10月31日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
12+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
英伟达Faster Transformer:作者带你揭秘BERT优化
机器之心
14+阅读 · 2019年9月18日
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
图解2018年领先的两大NLP模型:BERT和ELMo
新智元
9+阅读 · 2018年12月14日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
课程 |《知识图谱》第一期
开放知识图谱
22+阅读 · 2017年10月15日
课程 | 推荐系统资深架构师在这里等你!
AI研习社
3+阅读 · 2017年9月7日
相关论文
Arxiv
5+阅读 · 2019年10月31日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
12+阅读 · 2019年2月28日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Top
微信扫码咨询专知VIP会员