We introduce a new Slovak masked language model called SlovakBERT in this paper. It is the first Slovak-only transformers-based model trained on a sizeable corpus. We evaluate the model on several NLP tasks and achieve state-of-the-art results. We publish the masked language model, as well as the subsequently fine-tuned models for part-of-speech tagging, sentiment analysis and semantic textual similarity.


翻译:在本文中,我们引入了一个新的斯洛伐克面罩语言模式,名为斯洛伐克语。这是第一个斯洛伐克语的变压器模式,其基础是大量材料。我们评估了斯洛伐克语的变压器模式,并取得了最先进的成果。我们出版了面具语言模式,以及随后对部分语音标记、情绪分析和语义文本相似性进行微调的模型。

0
下载
关闭预览

相关内容

专知会员服务
86+阅读 · 2021年8月20日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
11+阅读 · 2019年6月19日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
VIP会员
相关VIP内容
专知会员服务
86+阅读 · 2021年8月20日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
相关论文
Top
微信扫码咨询专知VIP会员