In spoken Keyword Search, the query may contain out-of-vocabulary (OOV) words not observed when training the speech recognition system. Using subword language models (LMs) in the first-pass recognition makes it possible to recognize the OOV words, but even the subword n-gram LMs suffer from data sparsity. Recurrent Neural Network (RNN) LMs alleviate the sparsity problems but are not suitable for first-pass recognition as such. One way to solve this is to approximate the RNNLMs by back-off n-gram models. In this paper, we propose to interpolate the conventional n-gram models and the RNNLM approximation for better OOV recognition. Furthermore, we develop a new RNNLM approximation method suitable for subword units: It produces variable-order n-grams to include long-span approximations and considers also n-grams that were not originally observed in the training corpus. To evaluate these models on OOVs, we setup Arabic and Finnish Keyword Search tasks concentrating only on OOV words. On these tasks, interpolating the baseline RNNLM approximation and a conventional LM outperforms the conventional LM in terms of the Maximum Term Weighted Value for single-character subwords. Moreover, replacing the baseline approximation with the proposed method achieves the best performance on both multi- and single-character subwords.


翻译:在口语关键字搜索中,查询可能包含在培训语音识别系统时没有观察到的词汇外词。在第一个承认时,使用子字语言模型(LM)使分字语言模型(LM)能够识别OOV字词,但即使是小字 n-g LM 也存在数据宽度。常规神经网络(RNNN)LM LMLMLMLMLMLMLM(RNNLM)LM(LM)LM)LM(LM)LM(RNNLM)LM)LM(LM)(LM(LM))(LM(RNNLM))(LM(RNNLM)(M)(RNNNLM(M))(M(M)(RNNM))(RM(M)(M)(M)(M)(M)(M) (LOOVD(OV)字中,我们设置了这些模型,仅集中评价OV(OV)字的模型。在这些任务中,用最基本的RNNNNM(ODM(OL)(OD)(OD)(OD)(M)(OLOLM)(OD)(OL)(OL)(OD)(OL)(L)和(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(OD)(L)(L)(OD)(OD)(L)(L)(L)(L)(L)(L)(L))(L)(L)(L)(L))(L))))(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)))))(L)(L)(L)(L)(L)(L)(L)(L))(L)(L)(L)(L)))(L)(L)(L)(L)(L)(L)(L)((((((((((

0
下载
关闭预览

相关内容

【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
已删除
将门创投
7+阅读 · 2017年7月11日
Arxiv
6+阅读 · 2020年4月14日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2018年1月29日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
【文本生成现代方法】Modern Methods for Text Generation
专知会员服务
43+阅读 · 2020年9月11日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
212+阅读 · 2020年4月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
已删除
将门创投
7+阅读 · 2017年7月11日
Top
微信扫码咨询专知VIP会员