End-to-end neural automatic speech recognition systems achieved recently state-of-the-art results, but they require large datasets and extensive computing resources. Transfer learning has been proposed to overcome these difficulties even across languages, e.g., German ASR trained from an English model. We experiment with much less related languages, reusing an English model for Czech ASR. To simplify the transfer, we propose to use an intermediate alphabet, Czech without accents, and document that it is a highly effective strategy. The technique is also useful on Czech data alone, in the style of coarse-to-fine training. We achieve substantial eductions in training time as well as word error rate (WER).


翻译:端到端的神经自动语音识别系统最近取得了最新的最新成果,但它们需要大量的数据集和大量的计算资源。建议转移学习,以克服这些困难,即使是在各种语言之间,例如,从英语模型中培训的德国ASR。我们试验了少得多的相关语言,在捷克ASR中重新使用英语模型。为了简化传输,我们建议使用中间字母,捷克语没有口音,并记录这是一个非常有效的战略。这种技术还仅对捷克数据有用,以粗略到软体培训的方式。我们在培训时间和字词错误率方面实现了大量引入(WER ) 。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
LinkedIn最新《注意力模型》综述论文大全,20页pdf
专知会员服务
137+阅读 · 2020年12月20日
计算机视觉用于新冠病毒COVID-19的控制综述,25页pdf
专知会员服务
53+阅读 · 2020年4月22日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
一文读懂YOLO V5 与 YOLO V4
极市平台
17+阅读 · 2020年7月21日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年10月22日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2018年3月2日
Arxiv
3+阅读 · 2017年8月15日
VIP会员
相关资讯
一文读懂YOLO V5 与 YOLO V4
极市平台
17+阅读 · 2020年7月21日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员