BERT,GPT-2这些顶尖工具到底该怎么用到我的模型里?

2019 年 2 月 21 日 专知

【导读】近期的NLP方向,ELMO、GPT、BERT、Transformer-XL、GPT-2,各种预训练语言模型层出不穷,这些模型在各种NLP任务上一次又一次刷新上线,令人心驰神往。但是当小编翻开他们的paper,每一个上面都写着四个大字:“弱者退散”,到底该怎么将这些顶尖工具用到我的模型里呢?答案是Hugging Face的大神们开源的pytorch-pretrained-BERT。


Github 地址:

  • https://github.com/huggingface/pytorch-pretrained-BERT

编辑报道:

  • 专知-huaiwen


「模型简介」

近期的各种预训练语言模型,横扫各种NLP任务,这里我们介绍三个最火的预训练模型:

  • BERT,由Google AI团队,发表于2018年10月11日。它的文章是: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding。

  • Transformer-XL, 由Google AI和Carnegie Mellon大学,发表于2019年1月9日。它的文章是:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context。

  • GPT-2,由OpenAI 团队,发表于2019年2月14日,它的文章是:Language Models are Unsupervised Multitask Learners。

基本上,每一个文章,都在发表的时候,刷新当时的几乎所有NLP任务的State-of-the-Art,然后引发一波热潮。 当然,目前风头正盛的是GPT-2,它前几天刚发表



「开源实现」

然而,让小编翻开他们的paper,发现每一个上面都写着四个大字:“弱者退散”,到底该怎么将这些顶尖工具用到我的模型里呢,Hugging Face 的大神们,紧跟前沿,将所有的预训练语言模型都实现并开源了。更令人钦佩的是,它们还做了很多封装,让大家都可以才在这些巨人模型的肩膀上。


Hugging Face开源的库叫pytorch-pretained-bert, 你可以在本文开头找到链接。接下来的部分,我们介绍一下它的安装和使用。


「安装使用」

你可以直接使用 Pip install 来安装它:

pip install pytorch-pretrained-bert

pytorch-pretrained-bert 内 BERT,GPT,Transformer-XL,GPT-2。


为了获取一句话的BERT表示,我们可以:

拿到表示之后,我们可以在后面,接上自己的模型,比如NER。


我们也可以获取GPT的表示:

Transformer-XL表示:

以及,非常火的,GPT-2的表示:

有了这些表示,我们可以在后面,接入自己的模型,比如:

  • 文本分类

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_classifier.py

  • 阅读理解

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_squad.py

  • 语言模型

    • https://github.com/huggingface/pytorch-pretrained-BERT/blob/master/examples/run_lm_finetuning.py

  • 等等


-END-

专 · 知

专知《深度学习:算法到实战》课程全部完成!480+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询!

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询《深度学习:算法到实战》课程,咨询技术商务合作~

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
6

相关内容

BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【机器学习课程】Google机器学习速成课程
专知会员服务
164+阅读 · 2019年12月2日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
GitHub超9千星:一个API调用27个NLP预训练模型
新智元
17+阅读 · 2019年7月22日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
详细解读谷歌新模型 BERT 为什么嗨翻 AI 圈
人工智能头条
10+阅读 · 2018年10月25日
Arxiv
11+阅读 · 2019年6月19日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
21+阅读 · 2019年3月25日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
Top
微信扫码咨询专知VIP会员