Self-supervised acoustic pre-training has achieved impressive results on low-resource speech recognition tasks. It indicates that the pretrain-and-finetune paradigm is a promising direction. In this work, we propose an end-to-end model for the low-resource speech recognition, which fuses a pre-trained audio encoder (wav2vec2.0) and a pre-trained text decoder (BERT). The two modules are connected by a linear attention mechanism without parameters. A fully connected layer is introduced for hidden mapping between speech and language modalities. Besides, we design an effective fine-tuning strategy to preserve and utilize the text context modeling ability of the pre-trained decoder. Armed with this strategy, our model exhibits distinct faster convergence and better performance. Our model achieves approaching recognition performance in CALLHOME corpus (15h) as the SOTA pipeline modeling.


翻译:在低资源语音识别任务方面,自我监督的声学前培训取得了令人印象深刻的成果。 它表明,预先培训和电磁模式是一个有希望的方向。 在这项工作中,我们提出了低资源语音识别的端到端模式,该模式结合了预先培训的音频编码器(wav2vec2.0)和预先培训的文本解码器(BERT)。这两个模块通过一个没有参数的线性关注机制连接了两个模块。引入了一个完全相连的层,用于在语言和语言模式之间进行隐藏的绘图。此外,我们设计了一个有效的微调战略,以保存和利用预先培训的解码器的文本背景建模能力。有了这一战略,我们的模型展示了更快的趋同和更好的性能。我们的模型在SOTA编程模型中接近了ACTOMEposi(15h)的确认性能。

2
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
将门创投
6+阅读 · 2019年1月11日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
3+阅读 · 2018年6月19日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员