Transfer learning from high-resource languages is known to be an efficient way to improve end-to-end automatic speech recognition (ASR) for low-resource languages. Pre-trained or jointly trained encoder-decoder models, however, do not share the language modeling (decoder) for the same language, which is likely to be inefficient for distant target languages. We introduce speech-to-text translation (ST) as an auxiliary task to incorporate additional knowledge of the target language and enable transferring from that target language. Specifically, we first translate high-resource ASR transcripts into a target low-resource language, with which a ST model is trained. Both ST and target ASR share the same attention-based encoder-decoder architecture and vocabulary. The former task then provides a fully pre-trained model for the latter, bringing up to 24.6% word error rate (WER) reduction to the baseline (direct transfer from high-resource ASR). We show that training ST with human translations is not necessary. ST trained with machine translation (MT) pseudo-labels brings consistent gains. It can even outperform those using human labels when transferred to target ASR by leveraging only 500K MT examples. Even with pseudo-labels from low-resource MT (200K examples), ST-enhanced transfer brings up to 8.9% WER reduction to direct transfer.


翻译:据知,从高资源语言进行传输学习是提高低资源语言终端到终端自动语音识别(ASR)的有效方法,但是,预先培训或共同培训的编码器计算器模型并不共用同一语言的语言模型(decoder),对于远方目标语言来说,这种模型可能效率较低。我们采用语音到文本翻译(ST)作为辅助任务,以纳入对目标语言的额外知识,并能够从该目标语言进行传输。具体地说,我们首先将高资源ASR誊本翻译成一种低资源语言,用来培训ST模型。ST和具体目标ASR都使用相同的关注型编码器解码架构和词汇。前一项任务则为后者提供一个完全经过培训的模型,将24.6%的字差错率(WER)降低到基线(直接从高资源ASR转移到高资源语言)。我们表明,没有必要用人文翻译来培训ST(MT)假标签带来一致的收益。我们甚至可以超越那些使用以人文标签、500-MT模型直接转换到低资源标记的人,而仅通过IMT示例将标准转换为标准。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
Arxiv
0+阅读 · 2020年12月2日
Arxiv
5+阅读 · 2019年11月22日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Top
微信扫码咨询专知VIP会员