Recently, our proposed recurrent neural network (RNN) based all deep learning minimum variance distortionless response (ADL-MVDR) beamformer method yielded superior performance over the conventional MVDR by replacing the matrix inversion and eigenvalue decomposition with two RNNs.In this work, we present a self-attentive RNN beamformer to further improve our previous RNN-based beamformer by leveraging on the powerful modeling capability of self-attention. Temporal-spatial self-attention module is proposed to better learn the beamforming weights from the speech and noise spatial covariance matrices. The temporal self-attention module could help RNN to learn global statistics of covariance matrices. The spatial self-attention module is designed to attend on the cross-channel correlation in the covariance matrices. Furthermore, a multi-channel input with multi-speaker directional features and multi-speaker speech separation outputs (MIMO) model is developed to improve the inference efficiency.The evaluations demonstrate that our proposed MIMO self-attentive RNN beamformer improves both the automatic speech recognition (ASR) accuracy and the perceptual estimation of speech quality (PESQ) against prior arts.


翻译:最近,我们提议的基于所有深度学习最低差异不扭曲反应(ADL-MVDR-MVDR)的经常性神经网络(RNN)基于所有深层次学习最低差异不扭曲反应(ADL-MVDR)光谱法,通过用两个RNN取代矩阵反转和半值分解,取得了优于常规MVDR的功能。在这项工作中,我们提出了一个自我强化RNNN光束,以便通过利用强大的自我注意示范能力来进一步改进我们以前的RNNN的光束。提议时空空间自留模块,以更好地从语音和噪音空间变异矩阵中学习光成形重量。时间自留模块可以帮助RNNNN学习全球共变矩阵统计数据。空间自留模块旨在关注共变矩阵中的跨通道关联性。此外,还开发了一个多频导方向特征和多频调语音分离输出(MIIMO)的多频道输入模型,以提高推论效率。评价表明,我们提议的MIMO自惯性 RNNPES(MNPES)的语音预估校准性发言质量将提高先前的自动认识。

0
下载
关闭预览

相关内容

RNN:循环神经网络,是深度学习的一种模型。
专知会员服务
60+阅读 · 2021年3月17日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
一文读懂语音识别史
机械鸡
9+阅读 · 2017年10月16日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
8+阅读 · 2018年11月27日
VIP会员
相关VIP内容
专知会员服务
60+阅读 · 2021年3月17日
相关资讯
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
一文读懂语音识别史
机械鸡
9+阅读 · 2017年10月16日
Top
微信扫码咨询专知VIP会员