GluonNLP v0.7.1——BERT新装上阵

2019 年 7 月 26 日 ApacheMXNet

作者:Faramarz Munshi、林海滨(Amazon AI)

翻译:金颢 (Amazon Software Development Engineer)


GluonNLP [7] 再次升级!我们的 0.7 版本提供了在大型语料库上进行了预训练的 BERT Base 模型,其性能可与原论文中提供的 BERT Large 模型媲美。其他亮点包括在不同专业领域语料库上训练后的 BERT、新模型(ERNIE、GPT-2、ESIM 等)以及更多数据集。完整的发布文档请猛击这里(https://github.com/dmlc/gluon-nlp/releases)。

自从 BERT 进入 NLP 领域,整个 NLP 社区涌现了许多用于特定数据集和特定场景的 BERT 变种。从在科学领域文献和语料对 BERT 进行了大幅提升的 SciBERT,到在生物医药文本数据上对原有 BERT 进行了极大改进的 BioBERT [5],各个变种在其针对的领域都体现出了它们的实用性。同时,这一波新模型的热潮又为提升 BERT 模型作出了巨大贡献。

以上提到的正是本次 GluonNLP 发布的旗舰内容。我们提供的 BERT Base 模型经过在共 60GB 的 3 个新语料库(OpenWebText、BooksCorpus 和英文维基百科)上的预训练获得了大幅改进。由于更大语料库的加持,我们提供的 Base 模型的精度已经在七个任务中的六个上超越了 BERT 原论文中的 Large 模型。完整测试结果如下表所示(加粗字体代表进行比对的三个结果之中的最好结果):

Source GluonNLP BERT Base [8] BERT Large [8]
Dataset openwebtext_book_corpus_wiki_en_uncased book_corpus_wiki_en_uncased book_corpus_wiki_en_uncased
SST-2 95.3 93.5 94.9
RTE 73.6 66.4 70.1
QQP 72.3 71.2 72.1
SQuAD 1.1 91.0/84.4 88.5/80.8 90.9/84.1
STS-B 87.5 85.8 86.5
MNLI-m/mm 85.3/84.9 84.6/83.4 86.7/85.9

此外,我们也致力于简化您使用 BERT 完成您在具体领域上任务的步骤。加载 SciBERT、BioBERT、ClinicalBERT [3] 等模型仅需一行代码。同时,我们提供了一系列新模型:ERNIE [1]、GPT-2 [6] 语言模型和 ESIM [2] 模型,都仅需一行代码即可获得。

我们还为希望在 BERT 模型上尝试微调的用户们提供了更多脚本,用带有丰富注释的代码填补了我们之前的一些空白:在 CoNLL2003 数据集上进行命名实体识别的微调脚本、中文 XNLI 数据集的微调脚本以及在 ATIS 和 SNIPS 数据集上进行意图识别和位置标注(slot labelling)的微调脚本。不论您希望完成的具体任务是什么,我们都为您提供了合适的工具及基本的指导,并且均可以针对您的具体自然语言处理任务进行定制。

为了帮助您更好地测试、评估及根据需求修改我们提供的模型与脚本,我们还发布了与其匹配的数据集。在最新的发布中我们囊括了自然语言理解领域的 CoLA, SST-2, MRPC, STS-B, MNLI, QQP, QNLI, WNLI, RTE 数据集、情感分析领域的 CR 和 MPQA 数据集、以及用于测试意图识别与位置标注(slot labelling)的 ATIS 和 SNIPS 数据集。

还在等什么!快开始使用 GluonNLP,让自然语言处理事半功倍吧!

开始使用 GluonNLP

要开始通过 GluonNLP 使用 BERT,请阅读涵盖了如何在多个任务上微调 BERT 模型的教程(https://tinyurl.com/bert-nb)。此外,你也可以在 BERT Model Zoo(https://tinyurl.com/bert-models) 找到 BERT 的预训练脚本及若干数据集上的微调脚本。

欲了解 GluonNLP 的更多新特性,请移步我们的发布文档(https://github.com/dmlc/gluon-nlp/releases)。同时我们也正在开发更多功能与特性,敬请期待我们下一次的发布。

鸣谢

在此鸣谢来自 GluonNLP 社区的精彩贡献:@davisliang @paperplanet @ThomasDelteil @Deseaus @MarisaKirisame @Ishitori @TaoLv@basicv8vc @rongruosong @crcrpar @mrchypark @xwind-h @faramarzmunshi @leezu @szha @imgarylai @xiaotinghe @hankcs@sxjscience @hetong007 @bikestra @haven-jeon @cgraywang @astonzhang @LindenLiu @junrushao1994

参考文献

[1] Sun, Yu, et al. “ERNIE: Enhanced Representation through Knowledge Integration,” 2019;

[2] Qian Chen, Xiaodan Zhu, Zhenhua Ling, Si Wei, Hui Jiang: “Enhanced LSTM for Natural Language Inference”, 2016

[3] Kexin Huang, Jaan Altosaar: “ClinicalBERT: Modeling Clinical Notes and Predicting Hospital Readmission”, 2019

[4] Iz Beltagy, Arman Cohan: “SciBERT: Pretrained Contextualized Embeddings for Scientific Text”, 2019

[5] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So: “BioBERT: a pre-trained biomedical language representation model for biomedical text mining”, 2019

[6] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever: “Language Models are Unsupervised Multitask Learners”,” 2019

[7] Jian Guo, He He, Tong He, Leonard Lausen, Mu Li, Haibin Lin, Xingjian Shi, Chenguang Wang, Junyuan Xie, Sheng Zha, Aston Zhang, Hang Zhang, Zhi Zhang, Zhongyue Zhang: “GluonCV and GluonNLP: Deep Learning in Computer Vision and Natural Language Processing”, 2019

[8] Devlin, Jacob, et al. “Bert: Pre-training of deep bidirectional transformers for language understanding.” arXiv preprint arXiv:1810.04805 2018.


登录查看更多
0

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
一大批中文(BERT等)预训练模型等你认领!
PaperWeekly
14+阅读 · 2019年6月25日
奇点已过?聊聊BERT之后的NLP时代
AI研习社
4+阅读 · 2019年6月6日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
解读谷歌最强NLP模型BERT:模型、数据和训练
未来产业促进会
5+阅读 · 2018年10月20日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
8+阅读 · 2019年3月21日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关资讯
相关论文
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
8+阅读 · 2019年3月21日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Top
微信扫码咨询专知VIP会员