Neural network-based language models are commonly used in rescoring approaches to improve the quality of modern automatic speech recognition (ASR) systems. Most of the existing methods are computationally expensive since they use autoregressive language models. We propose a novel rescoring approach, which processes the entire lattice in a single call to the model. The key feature of our rescoring policy is a novel non-autoregressive Lattice Transformer Language Model (LT-LM). This model takes the whole lattice as an input and predicts a new language score for each arc. Additionally, we propose the artificial lattices generation approach to incorporate a large amount of text data in the LT-LM training process. Our single-shot rescoring performs orders of magnitude faster than other rescoring methods in our experiments. It is more than 300 times faster than pruned RNNLM lattice rescoring and N-best rescoring while slightly inferior in terms of WER.


翻译:以神经网络为基础的语言模型通常用于重新校准方法,以提高现代自动语音识别系统的质量。大多数现有方法由于使用自动递减语言模型,因此计算成本很高。我们建议采用新颖的重新校准方法,在对模型的单一调用中处理整层。我们重新校正政策的关键特征是新颖的非自动拉蒂变换语言模型(LT-LM)。这一模型将整个拉蒂作为输入,并预测每个弧的新语言分数。此外,我们提议人工拉蒂克生成方法,将大量文本数据纳入LT-LM培训过程。我们的单发重新校正比我们实验中的其他重新校正方法要快得多。它比小得多300倍,比小一点的RNNNLM Lattice重新校正和N-Best重新校正速度要快。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
专知会员服务
17+阅读 · 2020年9月6日
【新书】Python编程基础,669页pdf
专知会员服务
193+阅读 · 2019年10月10日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
已删除
将门创投
4+阅读 · 2018年5月31日
视频超分辨 Detail-revealing Deep Video Super-resolution 论文笔记
统计学习与视觉计算组
17+阅读 · 2018年3月16日
Arxiv
6+阅读 · 2019年7月11日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年11月13日
VIP会员
Top
微信扫码咨询专知VIP会员