ALBERT、XLNet,NLP技术发展太快,如何才能跟得上节奏?

2019 年 12 月 28 日 专知

谷歌Lab近日发布了一个新的预训练模型"ALBERT"全面在SQuAD 2.0、GLUE、RACE等任务上超越了BERT、XLNet、RoBERTa再次刷新了排行榜!ALBERT是一种轻量版本的BERT,利用更好的参数来训练模型,但是效果却反而得到了很大提升!ALBERT的核心思想是采用了两种减少模型参数的方法,比BERT占用的内存空间小很多,同时极大提升了训练速度,更重要的是效果上也有很大的提升! 

BERT 和 ALBERT 两者的参数量比较。


这次发布的模型由Google Lab的 Lan Zhenzhong博士来主导完成,而且Lan Zhenzhong博士正好也是贪心学院的顾问以及教研团队的成员。近期我们也会邀请Zhenzhong博士给大家做一次分享。


为了迎接NLP领域的各种变化,贪心学院的《自然语言处理》课程也在不断迭代更新,保证不错过任何2周之内出现的重要技术。自然语言处理无非是目前最大的风口,从Word2Vec、ElMo、GPT、Bert到XLNet, 我们见证了这个领域的高速发展以及未来的前景。互联网中的大量的文本以及IOT时代赋予我们的全新交互带来了这个领域的爆发。


那这样的训练营到底是怎么样的呢? 下面来详细介绍一下《自然语言处理高阶训练营》的内容,也可以添加我们专业的AI职业规划师来咨询,我们的咨询师也是顶级AI公司出来的哦~ 


01课程大纲
第一阶段 算法与机器学习基础


【核心知识点】
. 时间复杂度,空间复杂度分析
. Master's Theorem,递归复杂度分析
. 动态规划以及Dynamic Time Warpping
. Earth Mover's Distance
. 维特比算法
. LR、决策树、随机森林、XGBoost
. 梯度下降法、随机梯度下降法、牛顿法
. Projected Gradient Descent
. L0, L1, L2, L-Infinity Norm
. Grid Search, Bayesian Optimization
. 凸函数、凸集、Duality、KKT条件
. Linear SVM、Dual of SVM
. Kernel Tick, Mercer's Theorem
. Kernelized Linear Regression、Kernelized KNN
. Linear/Quadratic Programming
. Integer/Semi-definite Programming
. NP-completeness/NP-hard/P/NP
. Constrained Relaxation、Approximate Algorithm
. Convergence Analysis of Iterative Algorithm

【部分案例讲解】
. 基于Sparse Quadratic Programming的股票投资组合优化策略编写
. 基于Earth Mover's Distance的短文本相似度计算
. 基于Projected Gradient Descent和非负矩阵分解的词向量学习
. 基于Linear Programming的机票定价系统
. 基于DTW的文本相似度分析



第二阶段 语言模型与序列标注


【核心知识点】
. 文本预处理技术(tf-idf,Stemming等)
. 文本领域的特征工程
. 倒排表、信息检索技术
. Noisy Channel Model
. N-gram模型,词向量介绍
. 常见的Smoothing Techniques
. Learning to Rank
. Latent Variable Model
. EM算法与Local Optimality
. Convergence of EM
. EM与K-Means, GMM
. Variational Autoencoder与Text Disentangling
 .有向图与无向图模型
. Conditional Indepence、D-separation、Markov Blanket
. HMM模型以及参数估计
. Viterbi、Baum Welch
. Log-Linear Model与参数估计
. CRF模型与Linear-CRF
. CRF的Viterbi Decoding与参数估计


【部分案例讲解】
. 基于无监督学习方法的问答系统搭建
. 基于监督学习的Aspect-Based 情感分析系统搭建
. 基于CRF、LSTM-CRF、BERT-CRF 的命名实体识别应用 
. 基于语言模型和Noisy Channel Model的拼写纠错


第三阶段 信息抽取、词向量与知识图谱

【核心知识点】
. 命名实体识别技术
. 信息抽取技术
. Snowball, KnowitAll, RunnerText
. Distant Supervision, 无监督学习方法
. 实体统一、实体消歧义、指代消解
. 知识图谱、实体与关系
. 词向量、Skip-Gram、Negative Sampling
. 矩阵分解、CBOW与Glove向量
. Contexualized Embedding与ELMo
. KL Divergence与Gaussian Embedding
. 非欧式空间与Pointcare Embedding
. 黎曼空间中的梯度下降法
. 知识图谱嵌入技术
. TransE, NTN 的详解
. Node2Vec详解
. Adversial Learning与KBGAN


【部分案例讲解】
. 利用非结构化数据和信息抽取技术构建知识图谱
. 任务导向型聊天机器人的搭建
. 包含Intent与Entity Extraction的NLU模块实现
. 基于SkipGram的推荐系统实现(参考Airbnb论文)


第四阶段 深度学习与NLP

【核心知识点】
. Pytorch与Tensorflow详解. 表示学习,分布式表示技术
. 文本领域中的Disentangling
. 深度神经网络与BP算法详解
. RNN与Vanishing/Exploding Gradient
. LSTM与GRU
. Seq2Seq与注意力机制
. Greedy Decoding与Beam Search
. BI-LSTM-CRF模型
. Neural Turing Machine
. Memory Network
. Self Attention,Transformer以及Transformer-XL.
. Bert的详解
. BERT-BiLSTM-CRF
. GPT,MASS,  XLNet
. Low-resource learning
. 深度学习的可视化
. Laywer-wise Relevance Propagation

【部分案例讲解】
. 利用纯Python实现BP算法
. 基于Seq2Seq+注意力机制、基于Transformer的机器翻译系统
. 基于Transformer的闲聊型聊天机器人
. 基于BI-LSTM-CRF和BERT-BiLSTM-CRF在命名实体中的比较
. 利用Laywer-wise RP可视化端到端的机器翻译系统


第五阶段 贝叶斯模型与NLP


【核心知识点】
. 概率图模型与条件独立
. Markov Blanket 
. Dirichlet分布、Multinomial分布
. Beta分布、Conjugate Prior回顾
. Detail Balance
. 主题模型详解
. MCMC与吉布斯采样
. 主题模型与Collapsed Gibbs Sampling
. Metropolis Hasting, Rejection Sampling
. Langevin Dyamics与SGLD
. 分布式SGLD与主题模型
. Dynamic Topic Model 
. Supervised Topic Model
. KL Divergence与ELBO
. Variantional Inference, Stochastic VI
. 主题模型与变分法
. Nonparametric Models
. Dirichlet Process
. Chinese Restarant Process
. Bayesian Deep Neural Network 
. VAE与Reparametrization trick
. Bayesian RNN/LSTM
. Bayesian Word2Vec
. MMSB


【部分案例讲解】
. 利用Collapsed Gibbs Sampler和SGLD对主题模型做Inference
. 基于Bayesian-LSTM的命名实体识别
. 利用主题模型做文本分类在 
. LDA的基础上修改并搭建无监督情感分析模型


第六阶段 开放式项目 (Optional)


【项目介绍】
开放式项目又称为课程的capstone项目。 作为课程中的很重要的一部分,可以选择work on一个具有挑战性的项目。 通过此项目,可以深入去理解某一个特定领域,快速成为这个领域内的专家,并且让项目成果成为简历中的一个亮点。
 
【项目流程】
Step 1: 组队 
Step 2: 立项以及提交proposal
Step 3: Short Survey Paper 
Step 4: 中期项目Review 
Step 5: 最终项目PPT以及代码提交 
Step 6: 最终presentation 
Step 7: Technical Report/博客
【输出结果】
完整PPT、代码和Conference-Style Technical Report 最为项目的最后阶段,我们将组织学员的presentation分享大会。 借此我们会邀请一些同行业的专家、从业者、企业招聘方、优质猎头资源等共同参与分享大会。


为AI从业者/研究生/研究员专门定制
全网唯一《NLP自然语言处理高阶训练营》


对课程有意向的同学

添加课程顾问小姐姐微信

报名、课程咨询

👇👇👇


02部分项目作业


课程设计 紧密围绕学术界最新进展以及工业界的需求, 涵盖了所有核心知识点,并且结合了 大量实战项目, 培养学员的动手能力,解决问题能力。



问答系统


从零开始搭建一个完整的问答系统。 给定一个语料库(问题和答案对),对于用户的输入需要返回最适合的答案。 涉及到的模块:
1. 对于用户的输入需要做拼写纠错,这部分会用到语言模型
2. 之后对输入做文本的预处理,过滤等操作。
3. 把文本转换成向量形式,这里需要用到tf-idf, word2vec等相关的技术。
4. 针对于语料库,为了提升效率需要创建倒排表。
5. 基于相似度的计算来获得最优的答案。



情感分析系统


基于给定数据,来搭建一个完整的情感分析系统。 项目涉及到的模块:
1. 数据的预处理
2. 特征工程,这部分是本项目的核心。
3. 监督学习模型的选择与调参。 调参的过程需要尝试不同的优化策略。


知识图谱系统


利用非结构化数据来搭建知识图谱。项目涉及到的模块:

1. 从非结构化数据中抽取实体,以及词典库的构建
2. 关系的抽取(指定的关系)
3. 实体统一以及实体消歧。
4. 知识图谱的构建以及查询


对话系统中的NLU


基于给定的对话数据来构建NLU识别部分,并结果用于聊天机器人中。  项目涉及到的模块:
1. 文本特征的提取
2. 搭建CRF模型来识别关键词
3. 搭建LSTM-CRF模型来识别关键词。


机器翻译系统


基于给定数据,来搭建一个完整的情感分析系统。 项目涉及到的模块:
1. 数据的预处理
2. 特征工程,这部分是本项目的核心。
3. 监督学习模型的选择与调参。 调参的过程需要尝试不同的优化策略。


任务导向型聊天机器人


搭建一个完整的聊天机器人,用来服务搜索餐厅。项目涉及到的模块:

1. 文本预处理
2. 意图识别和关键信息抽取
3. 对于每一个意图设计对话管理状态机
4. 设计上下文处理的方法
5. 对话生成模块
6. 处理一些常见的boundary case。


03直播授课,现场推导演示


区别于劣质的PPT讲解,导师全程现场推导, 让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!


▲源自:CRF与Log-Linear模型讲解
▲源自:CRF与Log-Linear模型讲解
▲源自:Convex Optimization 讲解
▲源自:Convergence Analysis 讲解
不管你在学习过程中遇到多少阻碍,你都可以通过以下4种方式解决:
1、直接在线问导师;
2、记录到共享文档中,每日固定时间的直播答疑;
3、学习社群中全职助教,随时提问答疑
4、共同的问题在Review Session里面做讲解


注:每次答疑,班主任都会进行记录,以便学员实时查阅。


04课程适合谁?
  • 对机器学习算法有基础了解,具备编程能力;

  • 对数据结构与算法比较熟悉;

  • 想申请国外名校AI相关专业的硕士/博士;

  • 已从事NLP领域工作,想要升职加薪;

  • 想加入顶级AI公司;


05每周课程安排


采用直播的授课方式,一周4-5次的直播教学, 包括2次的main lectures, 1-2次的discussion session (讲解某一个实战、必备基础、案例或者技术上的延伸), 1次的paper reading session (每周会assign一篇必备论文,并且直播解读)。教学模式上也参考了美国顶级院校的教学体系。以下为其中一周的课程安排,供参考。 


每周一次的Review Session, 老师提前一周给出几个备选主题,由学生进行投票选择最心仪的主题,每周三次。


06你的必备挑战


1.编写一些技术类文章
通过在知乎上发表相关技术文章进行自我成果检验,同时也是一种思想碰撞的方式,导师会对发表的每一篇文章写一个详细的评语。万一不小心成为一个大V了呢?虽然写文章的过程万分痛苦,学习群里半夜哀嚎遍野,但看一看抓着头发写出来的文章结果还是非常喜人的!看着自己收获的点赞数,大家都默默地感谢起导师们的无情!


这种满满的成就感,让大家一篇接一篇写了下去!
个个都立刻变身成了知乎大牛~


2.Project项目
除了文章,算法工程师的立命根本--项目代码, 导师更是不会放过的。每次在Gitlab上布置的作业,导师们都会带领助教团队会予以详细的批改和反馈。并逼着你不断的优化!



07 训练营 导师
看了这么多,是不是非常崇拜设计出如此地狱式学习计划的大牛,那就来正式认识一下这位训练营中人人听了都闻风丧胆,但又让人崇拜+喜爱+欲罢不能的训练营大魔头:
李文哲

NLP、知识图谱领域专家


美国南加州大学博士,曾任凡普金科(爱钱进)首席科学家,美国亚马逊/高盛高级工程师,AI量化投资公司首席科学家兼投资总监。 在AAAI, KDD, AISTATS等顶会上发表过15篇以上论文,其中3篇获得Best Paper Award,累计数百次引用。

在被大魔头们折磨了多个日日夜夜后,大家不但没有放弃学习,而且很快乐地学习着。来听听大家的心声吧:

这两天群里更是捷报连连。 我们前三期项目的已经有多名学员被一线AI企业录取,还有通过二面、三面等待着offer。 相信未来几周我们将会受到更多的好消息!
随便截了几个学员反馈,看看他们有多爱这个机智又严苛的大魔头:



我确定了我们的魔鬼训练营没有误人子弟,我们的课程真的帮助到大家实质的技能提升或帮助大家拿到offer。


这次我们迎来了第六期NLP的招生,千万不要觉得这是一个对标其他线上课程的普通的训练营。由于内容的专业性以及深度,在过去吸引了大量的全球顶级名府的学员, 这里不乏来自斯坦福、UCSD、USC、哥大、HKUST、爱丁堡等世界名府的学生; 在这里,你不仅可以享受到通往顶尖人才的快乐、也可以结识志同道合的AI从业者以及未来的科学家。 
08报名须知

1、本课程为收费教学。
2、本期仅招收 50 个名额。
3、品质保障!正式 开课后7天内,无条件全额退款。
4、学习本课程需要具备一定的AI基础。


●●●
为AI从业者/研究生/研究员专门定制
全网唯一《NLP自然语言处理高阶训练营》

对课程有意向的同学

添加课程顾问小姐姐微信

报名、课程咨询

👇👇👇


登录查看更多
0

相关内容

条件随机域(场)(conditional random fields,简称 CRF,或CRFs),是一种判别式概率模型,是随机场的一种,常用于标注或分析序列资料,如自然语言文字或是生物序列。 如同马尔可夫随机场,条件随机场为具有无向的图模型,图中的顶点代表随机变量,顶点间的连线代表随机变量间的相依关系,在条件随机场中,随机变量 Y 的分布为条件机率,给定的观察值则为随机变量 X。原则上,条件随机场的图模型布局是可以任意给定的,一般常用的布局是链结式的架构,链结式架构不论在训练(training)、推论(inference)、或是解码(decoding)上,都存在效率较高的算法可供演算。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
112+阅读 · 2020年4月23日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
139+阅读 · 2020年3月1日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
2019年人工智能行业现状与发展趋势报告,52页ppt
专知会员服务
120+阅读 · 2019年10月10日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
无惧秋招,您的地狱级NLP算法工程师训练计划请查收
夕小瑶的卖萌屋
3+阅读 · 2019年9月19日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
近期语音类前沿论文
深度学习每日摘要
14+阅读 · 2019年3月17日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
6+阅读 · 2018年4月24日
VIP会员
相关VIP内容
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
112+阅读 · 2020年4月23日
BERT技术体系综述论文:40项分析探究BERT如何work
专知会员服务
139+阅读 · 2020年3月1日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
2019年人工智能行业现状与发展趋势报告,52页ppt
专知会员服务
120+阅读 · 2019年10月10日
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
无惧秋招,您的地狱级NLP算法工程师训练计划请查收
夕小瑶的卖萌屋
3+阅读 · 2019年9月19日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
近期语音类前沿论文
深度学习每日摘要
14+阅读 · 2019年3月17日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
相关论文
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
A General and Adaptive Robust Loss Function
Arxiv
8+阅读 · 2018年11月5日
Arxiv
6+阅读 · 2018年4月24日
Top
微信扫码咨询专知VIP会员