Single-channel speech enhancement approaches do not always improve automatic recognition rates in the presence of noise, because they can introduce distortions unhelpful for recognition. Following a trend towards end-to-end training of sequential neural network models, several research groups have addressed this problem with joint training of front-end enhancement module with back-end recognition module. While this approach ensures enhancement outputs are helpful for recognition, the enhancement model can overfit to the training data, weakening the recognition model in the presence of unseen noise. To address this, we used a pre-trained acoustic model to generate a perceptual loss that makes speech enhancement more aware of the phonetic properties of the signal. This approach keeps some benefits of joint training, while alleviating the overfitting problem. Experiments on Voicebank + DEMAND dataset for enhancement show that this approach achieves a new state of the art for some objective enhancement scores. In combination with distortion-independent training, our approach gets a WER of 2.80\% on the test set, which is more than 20\% relative better recognition performance than joint training, and 14\% relative better than distortion-independent mask training.


翻译:单通道语音增强方法并不总是在噪音出现的情况下提高自动识别率,因为它们可能造成扭曲,不利于识别。随着对连续神经网络模型进行端到端培训的趋势,一些研究小组通过后端识别模块联合培训前端增强模块,解决了这一问题。虽然这种方法确保了增强产出有助于识别,但增强模型可超过培训数据,在出现无形噪音的情况下削弱识别模型。为此,我们使用预先培训的声学模型来产生一种感知损失,使语音增强更加了解信号的语音特性。这种方法保留了联合培训的一些好处,同时缓解了过度适应的问题。在语音银行+DEMAND数据集进行的研究显示,这一方法为某些目标增强分数实现了新的艺术状态。与依赖扭曲的培训相结合,我们的方法在测试集上获得了2.80°的WER,比联合培训的认知性强20 ⁇ 以上,比依赖扭曲的面具培训更好14 ⁇ 。

0
下载
关闭预览

相关内容

语音增强是指当语音信号被各种各样的噪声干扰、甚至淹没后,从噪声背景中提取有用的语音信号,抑制、降低噪声干扰的技术。一句话,从含噪语音中提取尽可能纯净的原始语音。
最新《Transformers模型》教程,64页ppt
专知会员服务
278+阅读 · 2020年11月26日
【ACL2020】端到端语音翻译的课程预训练
专知会员服务
5+阅读 · 2020年7月2日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
168+阅读 · 2020年6月28日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
视频目标检测:Flow-based
极市平台
22+阅读 · 2019年5月27日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
8+阅读 · 2018年11月27日
VIP会员
Top
微信扫码咨询专知VIP会员