Non-parallel training is a difficult but essential task for DNN-based speech enhancement methods, for the lack of adequate noisy and paired clean speech corpus in many real scenarios. In this paper, we propose a novel adaptive attention-in-attention CycleGAN (AIA-CycleGAN) for non-parallel speech enhancement. In previous CycleGAN-based non-parallel speech enhancement methods, the limited mapping ability of the generator may cause performance degradation and insufficient feature learning. To alleviate this degradation, we propose an integration of adaptive time-frequency attention (ATFA) and adaptive hierarchical attention (AHA) to form an attention-in-attention (AIA) module for more flexible feature learning during the mapping procedure. More specifically, ATFA can capture the long-range temporal-spectral contextual information for more effective feature representations, while AHA can flexibly aggregate different intermediate feature maps by weights depending on the global context. Numerous experimental results demonstrate that the proposed approach achieves consistently more superior performance over previous GAN-based and CycleGAN-based methods in non-parallel training. Moreover, experiments in parallel training verify that the proposed AIA-CycleGAN also outperforms most advanced GAN-based speech enhancement approaches, especially in maintaining speech integrity and reducing speech distortion.


翻译:对于基于DNN的增强语言能力方法来说,非单词培训是一项艰巨但至关重要的任务,因为在许多真实的情景中缺乏足够的吵闹和配对的清洁语言材料,因此,DNN的增强语言能力方法缺乏足够的吵闹和配对的清洁语言材料。在本文件中,我们建议为非单词语音增强提供一个新的适应性关注-注意循环GAN(AIA-CycleGAN)(AIA-CycleGAN)模块(AIA-AIA)模块(AIA),以在绘图过程中更灵活地学习特征。更具体地说,ATFA可以捕捉长距离的超光谱背景信息,以便更有效地进行地貌表现。而在以前的基于循环GANAN的增强语言能力方法中,发电机的绘图能力有限,可能会导致性能退化和特征学习不足。为了缓解这种退化,我们建议将适应性的时间-频率关注和适应性层次关注(AHAHA)整合成一个关注模块,以形成一个在绘图过程中更灵活地学习特征的注意模式模块。更灵活地学习。更具体地说,ATFAFA-CS-A-AA-AAAAAMAC在同时进行实验实验中可以验证,还核实拟议的改进语言的改进的改进语言的改进语言能力方法。此外,还核实在改进GAAAAAAAAA-A-A-A-AAAAA-A-AA-A-AMS-AMS-AN的改进的改进式语言的改进的改进的改进式语言能力。

0
下载
关闭预览

相关内容

语音增强是指当语音信号被各种各样的噪声干扰、甚至淹没后,从噪声背景中提取有用的语音信号,抑制、降低噪声干扰的技术。一句话,从含噪语音中提取尽可能纯净的原始语音。
注意力机制综述
专知会员服务
83+阅读 · 2021年1月26日
专知会员服务
45+阅读 · 2020年10月31日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
注意力机制介绍,Attention Mechanism
专知会员服务
170+阅读 · 2019年10月13日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
已删除
将门创投
4+阅读 · 2018年11月6日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Phase-aware Speech Enhancement with Deep Complex U-Net
Arxiv
8+阅读 · 2018年11月27日
VIP会员
Top
微信扫码咨询专知VIP会员