In this paper, we introduce the Kaizen framework that uses a continuously improving teacher to generate pseudo-labels for semi-supervised speech recognition (ASR). The proposed approach uses a teacher model which is updated as the exponential moving average (EMA) of the student model parameters. We demonstrate that it is critical for EMA to be accumulated with full-precision floating point. The Kaizen framework can be seen as a continuous version of the iterative pseudo-labeling approach for semi-supervised training. It is applicable for different training criteria, and in this paper we demonstrate its effectiveness for frame-level hybrid hidden Markov model-deep neural network (HMM-DNN) systems as well as sequence-level Connectionist Temporal Classification (CTC) based models. For large scale real-world unsupervised public videos in UK English and Italian languages the proposed approach i) shows more than 10% relative word error rate (WER) reduction over standard teacher-student training; ii) using just 10 hours of supervised data and a large amount of unsupervised data closes the gap to the upper-bound supervised ASR system that uses 650h or 2700h respectively.


翻译:在本文中,我们引入了Kaizen框架,该框架使用不断改进的教师为半监督语音识别生成假标签(ASR)。拟议方法使用作为学生模型参数指数移动平均数(EMA)更新的教师模型。我们证明,对于学生模型参数的指数移动平均数(EMA)至关重要。对于学生模型参数参数的指数移动平均数(EMA),我们展示了该模型对于以全精度浮动点积累EMA至关重要。Kaizen框架可被视为半监督培训的迭代假标签方法的连续版本。它适用于不同的培训标准,在本文中,我们展示了它对于框架级混合隐藏的Markov 模型深神经网络(HMM-DNN) 系统以及序列级连接时间分类(CTCS) 模型的有效性。对于大规模真实世界不受监督的英语和意大利语公共视频来说,拟议方法(i) 显示比标准师资培训减少10%以上的相对字差差率(WER) ;二) 仅使用10小时的监督数据和大量未经监督的数据,从而缩小了分别使用650或2700小时或27时的高层监督的受监管的ASR系统的鸿沟。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
已删除
将门创投
9+阅读 · 2019年11月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
4+阅读 · 2019年11月21日
VIP会员
相关VIP内容
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
相关资讯
已删除
将门创投
9+阅读 · 2019年11月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员