Speech separation has been successfully applied as a frontend processing module of conversation transcription systems thanks to its ability to handle overlapped speech and its flexibility to combine with downstream tasks such as automatic speech recognition (ASR). However, a speech separation model often introduces target speech distortion, resulting in a sub-optimum word error rate (WER). In this paper, we describe our efforts to improve the performance of a single channel speech separation system. Specifically, we investigate a two-stage training scheme that firstly applies a feature level optimization criterion for pretraining, followed by an ASR-oriented optimization criterion using an end-to-end (E2E) speech recognition model. Meanwhile, to keep the model light-weight, we introduce a modified teacher-student learning technique for model compression. By combining those approaches, we achieve a absolute average WER improvement of 2.70% and 0.77% using models with less than 10M parameters compared with the previous state-of-the-art results on the LibriCSS dataset for utterance-wise evaluation and continuous evaluation, respectively


翻译:由于能够处理重叠的演讲及其与自动语音识别(ASR)等下游任务相结合的灵活性,语音分离模式被成功地用作对话记录系统前端处理模块。然而,语音分离模式往往引入目标言语扭曲,导致次优字错误率。在本文中,我们描述了我们为改善单一频道语音分离系统绩效所作的努力。具体地说,我们调查了两阶段培训计划,首先对培训前培训适用地平级优化标准,然后采用端至端语音识别模式,面向ASR的优化标准。与此同时,为了保持示范轻度,我们采用了经修改的师生学习技术,用于模式压缩。我们将这些方法结合起来,我们实现了绝对平均WER改进2.70%和0.77%,使用低于10M参数的模型,而使用LibriCSS数据集的高级结果,分别用于语音评估和持续评估。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2021年7月30日
专知会员服务
50+阅读 · 2020年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年8月21日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
Semantic Communications for Speech Recognition
Arxiv
0+阅读 · 2021年9月6日
Arxiv
8+阅读 · 2018年11月27日
VIP会员
相关资讯
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年8月21日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
论文共读 | Attention is All You Need
黑龙江大学自然语言处理实验室
14+阅读 · 2017年9月7日
Top
微信扫码咨询专知VIP会员