Transformer-based language models have been changing the modern Natural Language Processing (NLP) landscape for high-resource languages such as English, Chinese, Russian, etc. However, this technology does not yet exist for any Ghanaian language. In this paper, we introduce the first of such models for Twi or Akan, the most widely spoken Ghanaian language. The specific contribution of this research work is the development of several pretrained transformer language models for the Akuapem and Asante dialects of Twi, paving the way for advances in application areas such as Named Entity Recognition (NER), Neural Machine Translation (NMT), Sentiment Analysis (SA) and Part-of-Speech (POS) tagging. Specifically, we introduce four different flavours of ABENA -- A BERT model Now in Akan that is fine-tuned on a set of Akan corpora, and BAKO - BERT with Akan Knowledge only, which is trained from scratch. We open-source the model through the Hugging Face model hub and demonstrate its use via a simple sentiment classification example.


翻译:以变换器为基础的语言模型一直在改变诸如英语、中文、俄语等高资源语言的现代自然语言处理(NLP)景观。 但是,这种技术还不存在任何加纳语。 在本文中,我们为加纳语最广泛使用的语言Twi 或 Akan 引入了第一个这类模型,这是加纳语中最广泛使用的语言Twi 或 Akan 。这一研究工作的具体贡献是开发了几套为Twi Akuapem 和 Asante 方言开发的预先培训的变压器语言模型,为应用领域的进展铺平了道路,如命名实体识别(NER)、神经机器翻译(NMT)、感应分析(SA)和部分语音标记(POS)等领域的进展。 具体而言,我们引入了四种不同的ABENA-BERT 模型(ABERT Now in Akan),该模型正在对一套Akan Corora 进行微调,而BAKO-BERT只有Akan Kan Kont才从零开始培训。我们通过Hugging face 模范中心打开了该模型,并通过简单的情感分类示例展示该模型。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
39+阅读 · 2020年10月13日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
已删除
将门创投
3+阅读 · 2019年9月4日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
polyglot:Pipeline 多语言NLP工具
AINLP
4+阅读 · 2018年12月11日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Arxiv
4+阅读 · 2020年5月25日
Arxiv
29+阅读 · 2020年3月16日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
11+阅读 · 2018年10月17日
VIP会员
相关资讯
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
已删除
将门创投
3+阅读 · 2019年9月4日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
polyglot:Pipeline 多语言NLP工具
AINLP
4+阅读 · 2018年12月11日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Top
微信扫码咨询专知VIP会员