在过去几年时间里,NLP领域取得了飞速的发展,这也推动了NLP在产业中的持续落地,以及行业对相关人才的需求。
但这里我们要面对的现实是,行业上90%以上的NLP工程师是“不合格的”。在过去几个月时间里,我们其实也面试过数百名已经在从事NLP的工程师,但明显发现绝大部分对技术深度和宽度的理解是比较薄弱的,大多还是只停留在调用现有工具比如BERT、XLNet等阶段。
我们一直坚信AI人才的最大壁垒是创造力,能够持续为变化的业务带来更多的价值。但创造的前提一定是对一个领域的深度理解和广度认知,以及不断对一个事物的追问比如不断问自己为什么。
另外,有必要保持对前沿技术的敏感性,但事实上,很多人还是由于各种原因很难做到这一点。基于上述的目的,贪心学院一直坚持跑在技术的最前线,帮助大家不断地成长。贪心学院这次重磅推出了《自然语言处理高阶研修》。
01 课程大纲
课程内容上做了大幅度的更新,课程覆盖了从预训练模型、对话系统、信息抽取、知识图谱、文本生成所有必要的技术应用和学术前沿。课程采用全程直播授课模式。带你全面掌握自然语言处理技术,能够灵活应用在自己的工作中;深入理解前沿的技术,为后续的科研打下基础;通过完成一系列课题,有可能成为一个创业项目或者转换成你的科研论文。
第一章:预训练模型基础
| 预训练模型基础、语言模型回顾
| N-gram、Neural语言模型回顾
| 预训练方法的发展历程
| 预训练和transfer learning
| Pre-BERT时代的transfer learning
| word2vec,transfer learning in NER
| Post-BERT时代的transfer learning
| Pre-train fine-tune范式
第二章:ELmo与BERT
| Elmo、Transformer、BERT
| 更强的BERT:RoBERTa
| 基于Elmo和BERT的NLP下游任务
| Huggingface Transformers库介绍
| 构建基于BERT的情感分类器
第三章: GPT系列模型
| GPT、GPT2、GPT3
| 基于GPT的fine-tuning
| 基于GPT的Zero-shot learning
| 基于GPT模型的文本生成实战
| Top-k + Top-p 采样
| 基于给定Prompt生成续写文本
第四章: Transformer-XL与XLNet
| 处理长文本
| Transformer-XL
| 相对位置编码
| Permutation Language Model
| Two-stream attention
| XLNet
| 更进阶的预训练任务:MPNet
第五章:其他前沿的预训练模型
| 考虑知识的预训练模型:ERINE
| 对话预训练模型:PLATO2, DialoGPT
| SpanBERT
| MASS,UniLM
| BART,T5
| 实现基于T5的文本分类模型
第六章: 低计算量下模型微调和对比学习
| 低计算量情况下的预训练模型微调
| Adapter-based fine-tuning,
| Prompt-search,P-tuning
| 基于对比学习的预训练
| 对比学习目标:Triplet Loss,InfoNCE Loss
| 对比学习在NLP中的前沿应用:SimCSE
第七章:多模态预训练和挑战
| 多模态预训练模型
| 多模态匹配模型:CLIP,文澜
| VQ-VAE
| 多模态生成模型:DALLE,CogView
| 预训练模型面临的挑战及其前沿进展
| 模型并行带来的挑战
| 对于Transformer的改进:Reformer
第一章:对话系统综述
| 对话系统发展历程
| 对话系统的主要应用场景
| 常见的对话系统类别以及采用的技术
| 对话系统前沿的技术介绍
| 基础:语言模型
| 基础:基于神经网络的语言模型
第二章:对话系统综述
| 任务型对话系统的总体架构
| 案例:订票系统的搭建
| 自然语言理解模块简介
| 对话管理模块技术
| 对话生成模型技术
| 基于神经网络的文本分类和序列标注
第三章:自然语言处理理解模块
| 自然语言理解模块面临的挑战
| NLU模型中意图和槽位的联合识别
| 考虑长上下文的NLU
| NLU中的OOD检测
| NLU模型的可扩展性和少样本学习
| 少样本学习方法介绍
| 孪生网络、匹配网络、原型网络
第四章:对话管理和对话生成
| 对话状态追踪
| 对话策略详解
| POMDP技术
| 对话管理的最新研究进展
| 基于RL的对话管理
| 对话生成技术
| 端到端的对话系统
| 基于预训练模型的DST
第五章:闲聊对话系统
| 闲聊对话系统基础技术
| 基于检索的闲聊对话系统
| 基于生成的闲聊对话系统
| 融合检索和生成的闲聊对话系统
| Protoype rewriting, Retrieval augmented generation
| 闲聊对话系统的主要应用场景
| 闲聊对话系统技术所面临的主要挑战
| FAQ系统实战,实现一个自己的FAQ系统
| 基于RNN/Transformer/BERT的文本匹配模型
第六章:对话系统进阶
| 情感/共情对话系统
| 生成带情绪的回复
| 个性化对话生成
| 生成符合特定个性人设的回复
| 风格化对话生成
| 对话回复的多样性
| Label Smoothing, Adaptive label smoothing
| Top-K Sampling, Nuclear Sampling
| Non-autoregressive 算法在生成模型中的应用
| 基于Transformer的对话生成模型
| TransferTransfo
第七章:开源对话系统架构RASA详解
| RASA的主要架构
| 基于RASA搭建自己的对话系统
| 多模态对话、VQA
| 考虑图像模态的对话回复检索和生成
| 基于预训练模型的对话系统
| 基于GPT模型的对话模型
| Meena,PLA
第一章:知识图谱与图数据模型
| 知识图谱:搜索引擎,数据整合,AI
| 实体抽取、关系抽取、词向量
| graph embedding
| 图数据模型:RDF, Cyper
| 结构化数据的关系抽取
| 介绍关系抽取的基本方法
| 介绍结构化数据的信息过滤
第二章:知识图谱的设计
| RDF和Property graph的设计
| 创建KG:数据处理、文本和图像
| 推断用到的基本方法
| Path detection
| Centrality and community Detection
| 图结构嵌入方法
| 重要性的基本方法:node,edge
第三章:关系抽取和预测
| Hand-built patterns
| Bootstrapping methods
| Supervised methods
| Distant supervision
| Unsupervised methods
| 实体识别的基本方法
第四章:低资源信息抽取和推断
| Low-resource NER
| Low-resource structured models
| Learning multi-lingual Embeddings
| Deepath
| DIVA
| Generic Statistical Relational Entity Resolution in Knowledge Graphs
第五章:结构化预测模型
| Sequence labeling
| 结构化数据类别:Dependency,constituency
| Stack LSTM
| Stack RNNS
| Tree-structure LSTM
第六章:图挖掘的热门应用
| 基本图概念
| Link Prediction
| Recommendation system
| Anomaly detection
| Gated Graph Sequence Neural Networks
第一章:Seq2Seq模型与机器翻译
| Seq2seq 模型与机器翻译任务
| 机器翻译中未登录词UNK与subword
| 文本生成coverage
| length normalization
| 低资源语言生成
| 多任务学习
| Tearch Force Model
第二章:文本摘要生成(1)
| 摘要生成技术类别
| 生成式摘要生成技术
| 抽取式摘要生成技术
| 基于CNN的文本生成
| 基于RNN的文本生成
第三章:文本摘要生成(2)
| Pointer Network 及其应用
| CopyNet 于工业界的落地
| Length Normalization
| Coverage Normalization
| Text summarization 前沿研究
第四章:Creative Writing
| 可控性文本生成
| Story Telling 与预先训练GPT
| 诗词,歌词,藏头诗等文本生成
| 创作性文本生成技巧
第五章:多模态文本生成
| ResNet
| Inception 等预训练图片特征抽取模型
| Image Caption 及其应用
| Table2text
| 图神经网络与文本生成
第六章:对抗式文本生成与NL2sql
| 对抗生成网络 GAN模型
| 强化学习基础
| 基于 Policy Gradient 的强化学习
| SeqGAN
| NL2sql :自然语言转SQL
如果对课程感兴趣,请联系
添加课程顾问小姐姐微信
报名、课程咨询
👇👇👇
02 项目讲解&实战帮助
训练营最终的目的是帮助学员完成项目,理解项目中包含核心知识技能,训练营中会花大量的时间帮助学员理解项目以及所涉及到的实战讲解。
▲节选往期部分课程安排
03 专业的论文解读
作为AI工程师,阅读论文能力是必须要的。在课程里,我们每1-2周会安排一篇经典英文文章供学员阅读,之后由老师帮助解读。
▲仅供参考
04 代码解读&实战
对于核心的模型如BERT,XLNet都会精心安排代码解读和实战课,帮助学员深入理解其细节并有能力去实现。
▲BERT模型代码实战讲解
05 行业案例分享
训练营过程中会邀请合作的专家来分享行业案例以及技术解决方案,如知识图谱的搭建、保险领域的客服系统等。
▲专家分享
《Google YouTube 基于深度学习的视频推荐》
嘉宾简介:曾博士
计算机视觉,机器学习领域专家
先后在CVPR,ACMMM,TPAMI,SCI 期刊,EI 会议等发表超过30篇论文
06 日常社群答疑
为了帮助解决学员遇到的问题,专业助教会提供全天社群答疑服务。我们的助教均来来自于一线AI公司和国内外名校,扎实的理论和工业界应用也是我们选拔助教老师的重要标准,拒绝空谈理论。
▲社群内老师专业的解答
07 日常作业&讲解
为了巩固对一些核心知识点,学员除了大项目,也需要完成日常的小作业。之后助教会给出详细的解答。
▲课程学习中的小作业
适合什么样的人来参加呐?