Deep neural networks (DNNs) represent the mainstream methodology for supervised speech enhancement, primarily due to their capability to model complex functions using hierarchical representations. However, a recent study revealed that DNNs trained on a single corpus fail to generalize to untrained corpora, especially in low signal-to-noise ratio (SNR) conditions. Developing a noise, speaker, and corpus independent speech enhancement algorithm is essential for real-world applications. In this study, we propose a self-attending recurrent neural network(SARNN) for time-domain speech enhancement to improve cross-corpus generalization. SARNN comprises of recurrent neural networks (RNNs) augmented with self-attention blocks and feedforward blocks. We evaluate SARNN on different corpora with nonstationary noises in low SNR conditions. Experimental results demonstrate that SARNN substantially outperforms competitive approaches to time-domain speech enhancement, such as RNNs and dual-path SARNNs. Additionally, we report an important finding that the two popular approaches to speech enhancement: complex spectral mapping and time-domain enhancement, obtain similar results for RNN and SARNN with large-scale training. We also provide a challenging subset of the test set used in this study for evaluating future algorithms and facilitating direct comparisons.


翻译:深心神经网络(DNNs)是监督语音增强工作的主流方法,这主要是因为他们有能力用等级代表制来模拟复杂功能。然而,最近的一项研究显示,在单一物质条件下受过训练的DNNS未能向未经训练的体型推广,特别是在低信号对噪音比率条件下。开发噪音、扬声器和独立语音增强算法对于现实世界应用来说至关重要。在本研究中,我们提议了一种自上而下的经常性神经网络(SARNN),用于时间性语言增强,以改善跨子体通用。SARNNN是由经常神经网络(RNNS)组成的,以自我注意区块和向前的区块增扩增。我们对不同体型的SARNNNS进行了评估,在低核NR条件下使用非静止噪音。实验结果表明,SARNNN(S)在时间性语言增强工作上大大超越了竞争方法。此外,我们报告一项重要发现,两种流行的语音增强语言增强方法:复杂的光谱测绘和时间持续增强。我们还在对RNNN和SAR系统进行类似的直接测试。

0
下载
关闭预览

相关内容

语音增强是指当语音信号被各种各样的噪声干扰、甚至淹没后,从噪声背景中提取有用的语音信号,抑制、降低噪声干扰的技术。一句话,从含噪语音中提取尽可能纯净的原始语音。
FPGA加速深度学习综述
专知会员服务
68+阅读 · 2021年11月13日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
0+阅读 · 2022年1月24日
Arxiv
14+阅读 · 2021年6月30日
Arxiv
12+阅读 · 2019年3月14日
Phase-aware Speech Enhancement with Deep Complex U-Net
Arxiv
8+阅读 · 2018年11月27日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员