Adaption of end-to-end speech recognition systems to new tasks is known to be challenging. A number of solutions have been proposed which apply external language models with various fusion methods, possibly with a combination of two-pass decoding. Also TTS systems have been used to generate adaptation data for the end-to-end models. In this paper we show that RNN-transducer models can be effectively adapted to new domains using only small amounts of textual data. By taking advantage of model's inherent structure, where the prediction network is interpreted as a language model, we can apply fast adaptation to the model. Adapting the model avoids the need for complicated decoding time fusions and external language models. Using appropriate regularization, the prediction network can be adapted to new domains while still retaining good generalization capabilities. We show with multiple ASR evaluation tasks how this method can provide relative gains of 10-45% in target task WER. We also share insights how RNN-transducer prediction network performs as a language model.


翻译:据知,将终端到终端语音识别系统适应新任务具有挑战性。 已经提出若干解决方案,采用外部语言模型,采用各种组合方法,可能同时使用双通道解码。 还使用了TTS系统为端到终端模型生成适应数据。 在本文中,我们显示,仅使用少量文本数据,RNN-传输器模型可以有效地适应新领域。 通过利用模型的内在结构,在将预测网络解释为语言模型的情况下,我们可以对模型进行快速适应。 调整模型避免了复杂的解码时间聚合和外部语言模型的需要。 使用适当的正规化,预测网络可以适应新的领域,同时仍然保留良好的通用能力。 我们通过多项 ASR 评估任务显示,这种方法如何在目标任务WER中提供10-45%的相对收益。 我们还分享关于RNN- 传输器预测网络如何作为语言模型运行的见解。

0
下载
关闭预览

相关内容

面向健康的大数据与人工智能,103页ppt
专知会员服务
108+阅读 · 2020年12月29日
【斯坦福CS330】终身学习: 问题陈述,前后迁移,30页ppt
专知会员服务
25+阅读 · 2020年12月13日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
AI科技评论
4+阅读 · 2018年8月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2021年6月5日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
4+阅读 · 2018年4月11日
Arxiv
4+阅读 · 2018年2月19日
VIP会员
相关资讯
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
AI科技评论
4+阅读 · 2018年8月12日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关论文
Arxiv
0+阅读 · 2021年6月5日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
4+阅读 · 2018年4月11日
Arxiv
4+阅读 · 2018年2月19日
Top
微信扫码咨询专知VIP会员