Transformers have recently become very popular for sequence-to-sequence applications such as machine translation and speech recognition. In this work, we propose a multi-task learning-based transformer model for low-resource multilingual speech recognition for Indian languages. Our proposed model consists of a conformer [1] encoder and two parallel transformer decoders. We use a phoneme decoder (PHN-DEC) for the phoneme recognition task and a grapheme decoder (GRP-DEC) to predict grapheme sequence. We consider the phoneme recognition task as an auxiliary task for our multi-task learning framework. We jointly optimize the network for both phoneme and grapheme recognition tasks using Joint CTC-Attention [2] training. We use a conditional decoding scheme to inject the language information into the model before predicting the grapheme sequence. Our experiments show that our proposed approach can obtain significant improvement over previous approaches [4]. We also show that our conformer-based dual-decoder approach outperforms both the transformer-based dual-decoder approach and single decoder approach. Finally, We compare monolingual ASR models with our proposed multilingual ASR approach.


翻译:在这项工作中,我们提议了一个多任务学习型变压器模型,用于印度语言的低资源多语种语音识别。我们提议的模型包括一个符合[1]1的编码器和两个平行变压器解码器。我们使用一个电话解码器(PHN-DEC)进行电话识别任务,并使用一个图形解码器(GRP-DEC)来预测图形解码器序列。我们认为,电话识别任务是我们多任务学习框架的辅助任务。我们共同利用联合CTC-Avention[2]培训优化电话和图形化识别任务的网络[2]。我们使用一个有条件的解码方案,在预测图形序列之前将语言信息输入到模型中。我们的实验表明,我们拟议的方法可以比以前的方法[4]取得显著的改进。我们还表明,我们基于兼容器的双解码器方法超越了我们基于变压器的双重解码器方法和单一解码器方法。最后,我们将单一的多语文模式与AdolioSR模型进行比较。

0
下载
关闭预览

相关内容

简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
2019深度学习语音合成指南
AI科技评论
6+阅读 · 2019年9月2日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
LibRec 精选:从0开始构建RNN网络
LibRec智能推荐
5+阅读 · 2019年5月31日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
2018年度NLP领域最令人兴奋的10项新研究
AI前线
16+阅读 · 2018年12月29日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
5+阅读 · 2019年11月22日
VIP会员
相关VIP内容
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
2019深度学习语音合成指南
AI科技评论
6+阅读 · 2019年9月2日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
LibRec 精选:从0开始构建RNN网络
LibRec智能推荐
5+阅读 · 2019年5月31日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
2018年度NLP领域最令人兴奋的10项新研究
AI前线
16+阅读 · 2018年12月29日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员