预训练方法 BERT和OpenAI GPT有什么区别?

2019 年 7 月 4 日 七月在线实验室

预训练方法 BERT和OpenAI GPT有什么区别?


解析:

1.GPT在BooksCorpus(800M单词)训练;BERT在BooksCorpus(800M单词)和维基百科(2,500M单词)训练。


2.GPT使用一种句子分隔符([SEP])和分类符词块([CLS]),它们仅在微调时引入;BERT在预训练期间学习[SEP],[CLS]和句子A/B嵌入。


3.GPT用一个批量32,000单词训练1M步;BERT用一个批量128,000单词训练1M步。


4.GPT对所有微调实验使用的5e-5相同学习率;BERT选择特定于任务的微调学习率,在开发集表现最佳。


 

就业班来了

依据个人情况定制化教学

名企面试官亲自辅导面试

让你“薪”满意足!

↓扫码查看课程详情↓

AI如果耍起了心眼,人类就像个白痴......

GitHub 4.6万星:微软新命令行开放下载!



阅读原文查看课程。
你在看吗?
登录查看更多
2

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
3分钟看懂史上最强NLP模型BERT
机器学习算法与Python学习
7+阅读 · 2019年2月27日
效果惊人的GPT 2.0模型:它告诉了我们什么
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
相关资讯
面试题:预训练方法 BERT和OpenAI GPT有什么区别?
七月在线实验室
15+阅读 · 2019年5月15日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
3分钟看懂史上最强NLP模型BERT
机器学习算法与Python学习
7+阅读 · 2019年2月27日
效果惊人的GPT 2.0模型:它告诉了我们什么
GLUE排行榜上全面超越BERT的模型近日公布了!
机器之心
9+阅读 · 2019年2月13日
Top
微信扫码咨询专知VIP会员