Self-attention (SA), which encodes vector sequences according to their pairwise similarity, is widely used in speech recognition due to its strong context modeling ability. However, when applied to long sequence data, its accuracy is reduced. This is caused by the fact that its weighted average operator may lead to the dispersion of the attention distribution, which results in the relationship between adjacent signals ignored. To address this issue, in this paper, we introduce relative-position-awareness self-attention (RPSA). It not only maintains the global-range dependency modeling ability of self-attention, but also improves the localness modeling ability. Because the local window length of the original RPSA is fixed and sensitive to different test data, here we propose Gaussian-based self-attention (GSA) whose window length is learnable and adaptive to the test data automatically. We further generalize GSA to a new residual Gaussian self-attention (resGSA) for the performance improvement. We apply RPSA, GSA, and resGSA to Transformer-based speech recognition respectively. Experimental results on the AISHELL-1 Mandarin speech recognition corpus demonstrate the effectiveness of the proposed methods. For example, the resGSA-Transformer achieves a character error rate (CER) of 5.86% on the test set, which is relative 7.8% lower than that of the SA-Transformer. Although the performance of the proposed resGSA-Transformer is only slightly better than that of the RPSA-Transformer, it does not have to tune the window length manually.


翻译:自我关注(SA)根据对称相似性对矢量序列进行编码,由于具有很强的环境建模能力,在语音识别中被广泛使用。然而,当应用到长序列数据时,其准确性会降低。这是因为其加权平均操作员可能导致注意力分布分散,从而导致相邻信号之间的关系被忽视。为了解决这一问题,我们在本文件中引入了相对定位意识自留(RSA),它不仅保持了全球范围自控模型的自控能力,而且提高了本地化建模能力。由于原 RPSA 的本地窗口长度是固定的,对不同的测试数据敏感,我们在此提议基于Gausian的加权平均操作员可能会导致注意力分布分散,从而导致相邻信号被忽略。为了改进性能,我们进一步将GSA推广到新的残余自留自留自控(RSAA) 。我们将RPSAA、GSA和ResGSA 的透明性能识别能力稍低一些。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
NeurIPS 20201接收论文列表发布,2334篇论文都在这了!
专知会员服务
37+阅读 · 2021年11月4日
专知会员服务
22+阅读 · 2021年9月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
TiramisuASR:用TensorFlow实现的语音识别引擎
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Context / Sequential / Session RS的区别
机器学习与推荐算法
3+阅读 · 2020年6月12日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年5月6日
猿桌会 | 语音识别技术分享
AI研习社
5+阅读 · 2018年11月14日
Arxiv
3+阅读 · 2021年10月14日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员