【Github】GPT2-Chinese:中文的GPT2训练代码

2019 年 8 月 23 日 AINLP


推荐一个Github项目:/GPT2-Chinese


Chinese version of GPT2 training code, using BERT tokenizer.

作者是AINLP交流群里的杜则尧同学,提供了一份中文的GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。推荐Star,项目链接,点击阅读原文可以直达:


https://github.com/Morizeyao/GPT2-Chinese


以下来在该项目主页描述。




GPT2-Chinese

Description

  • Chinese version of GPT2 training code, using BERT tokenizer. It is based on the extremely awesome repository from HuggingFace team Pytorch-Transformers. Can write poems, news, novels, or train general language models. Support char level and word level. Support large training corpus.

  • 中文的GPT2训练代码,使用BERT的Tokenizer。可以写诗,新闻,小说,或是训练通用语言模型。支持字为单位或是分词模式。支持大语料训练。

项目状态

  • 目前项目主要架构已经稳定。如发现任何bug或是有功能意见与改进欢迎提交Issue,PR或是联系作者。

使用方法

  • 在项目根目录建立data文件夹。将训练语料以train.json为名放入data目录中。train.json里是一个json列表,列表的每个元素都分别是一篇要训练的文章。

  • 运行train.py文件,勾选 --raw ,会自动预处理数据。

  • 预处理完成之后,直接运行train.py文件,即可开始训练。

文件结构

  • generate.py 与 train.py 分别是生成与训练的脚本。

  • train_single.py 是 train.py的延伸,可以用于一个很大的单独元素列表(如训练一本书)。

  • eval.py 用于评估生成模型的ppl分值。

  • generate_texts.py 是 generate.py 的延伸,可以以一个列表的起始关键词分别生成若干个句子并输出到文件中。

  • train.json 是训练样本的格式范例,可供参考。

  • cache 文件夹内包含若干BERT词表,make_vocab.py 是一个协助在一个train.json语料文件上建立词表的脚本。vocab.txt 是原始BERT词表, vocab_all.txt 额外添加了古文词, vocab_small.txt 是小词表, no_word_piece的是没有word piece的词表。

  • tokenizations 文件夹内是可以选用的三种tokenizer,包括默认的Bert Tokenizer,分词版Bert Tokenizer以及没有word piece的Bert Tokenizer。

注意

  • 本项目使用Bert的tokenizer处理中文字符。

  • 如果使用分词版的tokenizer,不需要自己事先分词,tokenizer会帮你分。

  • 如果使用分词版的tokenizer,最好先使用cache文件夹内的make_vocab.py文件建立针对你的语料的词表。

  • 模型需自行运算。各位如果完成了预训练的话欢迎进行交流。

  • 如果你的内存非常大或者语料较小的话,可以改掉train.py内build files内的对应代码,不做拆分直接预处理语料。

语料

  • 可以从这里与这里下载。

  • 斗破苍穹语料可以从这里下载。

FP16与Gradient Accumulation支持

  • 我在train.py文件中加入了fp16与gradient accumulation支持,如果你安装了apex并且知道fp16是什么的话,可以修改变量fp16=True来启用。但是目前fp16不收敛,原因不明。

联系作者

  • QQ:330501241

  • Mail:ned1991@gmail.com

Citing

@misc{GPT2-Chinese,
author = {Zeyao Du},
title = {GPT2-Chinese: Tools for training GPT2 model in Chinese language},
year = {2019},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/Morizeyao/GPT2-Chinese}},
}

生成样例可以在Github页面查看,点击阅读原文直达。

登录查看更多
52

相关内容

Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
107+阅读 · 2020年5月3日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
《动手学深度学习》(Dive into Deep Learning)PyTorch实现
专知会员服务
119+阅读 · 2019年12月31日
【干货】用BRET进行多标签文本分类(附代码)
专知会员服务
84+阅读 · 2019年12月27日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
5+阅读 · 2018年5月5日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
word2vec中文语料训练
全球人工智能
12+阅读 · 2018年4月23日
Top
微信扫码咨询专知VIP会员