In recent years, neural vocoders have surpassed classical speech generation approaches in naturalness and perceptual quality of the synthesized speech. Computationally heavy models like WaveNet and WaveGlow achieve best results, while lightweight GAN models, e.g. MelGAN and Parallel WaveGAN, remain inferior in terms of perceptual quality. We therefore propose StyleMelGAN, a lightweight neural vocoder allowing synthesis of high-fidelity speech with low computational complexity. StyleMelGAN employs temporal adaptive normalization to style a low-dimensional noise vector with the acoustic features of the target speech. For efficient training, multiple random-window discriminators adversarially evaluate the speech signal analyzed by a filter bank, with regularization provided by a multi-scale spectral reconstruction loss. The highly parallelizable speech generation is several times faster than real-time on CPUs and GPUs. MUSHRA and P.800 listening tests show that StyleMelGAN outperforms prior neural vocoders in copy-synthesis and Text-to-Speech scenarios.


翻译:近些年来,神经电动器在合成语音的自然性和感知质量方面超过了典型的语音生成方法。WaveNet和WaveGlow等重度模型取得了最佳效果,而轻量级GAN模型,如MelGAN和平行WaveGAN等,在感知质量方面仍然低劣。因此,我们提议StyleMelGAN,一个轻量级神经电动器,可以将高纤维语言与低计算复杂度合成。StyleMelGAN采用时间适应性正常化,对带有目标演讲声学特征的低维度噪音矢量进行风格化。为了高效培训,多个随机窗口歧视者对由过滤库分析的语音信号进行对抗性评价,由多尺度光谱重建损失提供正规化。在CPUs和GPUPS上,高度平行的语音生成数倍于实时时间。MUSHRA和P.800听力测试显示SylMelGAN在复制和文本到Speet-Speech情景中超越了前神经变形。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
44+阅读 · 2020年10月31日
【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
详解GAN的谱归一化(Spectral Normalization)
PaperWeekly
11+阅读 · 2019年2月13日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
8+阅读 · 2018年5月21日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员