Pre-trained transformers are now the de facto models in Natural Language Processing given their state-of-the-art results in many tasks and languages. However, most of the current models have been trained on languages for which large text resources are already available (such as English, French, Arabic, etc.). Therefore, there is still a number of low-resource languages that need more attention from the community. In this paper, we study the Algerian dialect which has several specificities that make the use of Arabic or multilingual models inappropriate. To address this issue, we collected more than one Million Algerian tweets, and pre-trained the first Algerian language model: DziriBERT. When compared to existing models, DziriBERT achieves the best results on two Algerian downstream datasets. The obtained results show that pre-training a dedicated model on a small dataset (150 MB) can outperform existing models that have been trained on much more data (hundreds of GB). Finally, our model is publicly available to the community.


翻译:预先培训的变压器现在已成为自然语言处理中事实上的模型,因为其在许多任务和语言方面都取得了最先进的成果,但是,目前的大多数模型已经就已经具备大量文本资源的语言(如英文、法文、阿拉伯文等)进行了培训,因此,仍然有一些低资源语言需要社区给予更多的关注。在本文中,我们研究了阿尔及利亚方言,该方言有若干特点,使得使用阿拉伯语或多语言模式不合适。为了解决这一问题,我们收集了100多万阿尔及利亚的推文,并预先培训了第一个阿尔及利亚语言模型:DziriBERT。与现有的模型相比,DziriBERT在两个阿尔及利亚下游数据集上取得了最佳结果。获得的结果表明,对一个小型数据集(150 MB)专门模型进行的培训前,能够超越在更多数据方面受过培训的现有模型(100万GB)。最后,我们的模式向社区公开。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
12+阅读 · 2019年2月28日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员