In this work, we introduce EMMA-500, a large-scale multilingual language model continue-trained on texts across 546 languages designed for enhanced multilingual performance, focusing on improving language coverage for low-resource languages. To facilitate continual pre-training, we compile the MaLA corpus, a comprehensive multilingual dataset enriched with curated datasets across diverse domains. Leveraging this corpus, we conduct extensive continual pre-training of the Llama 2 7B model, resulting in EMMA-500, which demonstrates robust performance across a wide collection of benchmarks, including a comprehensive set of multilingual tasks. Our results highlight the effectiveness of continual pre-training in expanding large language models' language capacity, particularly for underrepresented languages, demonstrating significant gains in cross-lingual transfer, task generalization, and language adaptability. We release the MaLA corpus, EMMA-500 model weights, scripts, and model generations.


翻译:本研究介绍了EMMA-500,这是一个基于546种语言文本持续训练的大规模多语言语言模型,旨在提升多语言性能,重点关注低资源语言的语言覆盖范围。为促进持续预训练,我们构建了MaLA语料库,这是一个涵盖多领域精选数据的综合性多语言数据集。利用该语料库,我们对Llama 2 7B模型进行了广泛的持续预训练,最终得到EMMA-500模型。该模型在包括多语言任务套件在内的广泛基准测试中展现出稳健性能。我们的结果突显了持续预训练在扩展大型语言模型语言能力方面的有效性,特别是对于代表性不足的语言,在跨语言迁移、任务泛化和语言适应性方面均显示出显著提升。我们公开了MaLA语料库、EMMA-500模型权重、相关脚本及模型生成结果。

0
下载
关闭预览

相关内容

将Python用于NLP:Pattern 库简介
Python程序员
15+阅读 · 2019年6月7日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员