BERT系列文章汇总导读

2019 年 8 月 19 日 AINLP

以下是AINLP公众号BERT相关文章的系列导读,感兴趣的同学可以参考。


BERT相关论文、文章和代码资源汇总

张俊林博士系列解读

放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较

预训练在自然语言处理的发展: 从Word Embedding到BERT模型

从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

Bert时代的创新(应用篇):Bert在NLP各领域的应用进展

效果惊人的GPT 2.0模型:它告诉了我们什么

XLNet:运行机制及和Bert的异同比较

高开远同学系列:

BERT源码分析PART I

BERT源码分析PART II

BERT源码分析PART III

站在BERT肩膀上的NLP新秀们(PART I)

站在BERT肩膀上的NLP新秀们(PART II)

站在BERT肩膀上的NLP新秀们(PART III)

Nvidia League Player:来呀比到天荒地老

老宋的茶书会系列:

听说你还没读过 Bert 源码?

Bert 改进: 如何融入知识

张贵发同学文章:

一步步理解BERT

最新语言表示方法XLNet

艾力亚尔同学的文章:

NLP - 基于 BERT 的中文命名实体识别(NER)

NLP - BERT/ERNIE 文本分类和部署

SunYanCN同学的文章:

详解BERT阅读理解

简单高效的Bert中文文本分类模型开发和部署

其他相关:

吴金龙博士的解读:BERT时代与后时代的NLP

谷歌BERT模型深度解析

BERT_Paper_Chinese_Translation: BERT论文中文翻译版

【Github】BERT-train2deploy:BERT模型从训练到部署

BERT/注意力机制/Transformer/迁移学习NLP资源大列表:awesome-bert-nlp


登录查看更多
12

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
【资源】最新BERT相关论文清单汇总
专知
33+阅读 · 2019年10月2日
站在BERT肩膀上的NLP新秀们(PART I)
AINLP
30+阅读 · 2019年6月4日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
BERT相关论文、文章和代码资源汇总
AINLP
19+阅读 · 2018年11月17日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年8月22日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关VIP内容
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
注意力机制模型最新综述
专知会员服务
266+阅读 · 2019年10月20日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
【资源】最新BERT相关论文清单汇总
专知
33+阅读 · 2019年10月2日
站在BERT肩膀上的NLP新秀们(PART I)
AINLP
30+阅读 · 2019年6月4日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
BERT相关论文、文章和代码资源汇总
AINLP
19+阅读 · 2018年11月17日
相关论文
Top
微信扫码咨询专知VIP会员