面对音库成本难题,PaddleSpeech 语音合成技术再升级,开源多种降低定制音库成本方案。
采用语音-文本联合训练的方式在多语言的数据集上训练,合成声音更加自然,可以承接多种下游任务,支持个性化合成、跨语言合成、语音编辑,可有效降低定制化音库所需数据量。
两分钟
带你一起快速体验 PaddleSpeech 发新功能
如果觉得效果还不错,欢迎大家 Star 关注收藏
https://github.com/PaddlePaddle/PaddleSpeech
AI Studio 在线体验:【PaddleSpeech 进阶】PaddleSpeech 小样本合成方案体验(https://aistudio.baidu.com/aistudio/projectdetail/4573549)
在语音合成任务中,想要学习一个发音人的音色需要大量的专业录音数据。以中文标准女声音库(Chinese Standard Mandarin Speech Copus)为例,其中包含 10000 句,共计约 12 小时的干音数据。想要录制一个这样的标准音库,从音库设计,录制干音,到标注完成,涉及录音员、监听师、数据标注员等多种工作人员的参与,全套的工期至少需要两到三个月,消耗的人力成本和时间成本高。
标准音库录制流程
定制音色需求在业务中也较为常见,例如,在智能客服行业中,服务提供商在提供语音合成服务时,用户想要使用自己话务员的声音,采用录制标准音库方案耗时长,成本高,此时可以考虑使用小样本合成方案,通过录制少量发音人的音色,快速使用发音人的音色进行发音。
对于小样本合成问题,业界有两种主流方案:
在一句话合成方案中,将发音人的音色信息进行编码后,输入到多说话人语音合成模型中,使用发音人的音色进行合成任务。如 SV2TTS 模型结构所示,通过 Speaker Encoder 模块将说话人的音频转换成 speaker embedding 输入到 Synthesizer 中,得到具有说话人音色的梅尔频谱,再通过 Vocoder 将其转换成音频。
非常热门的一句话合成项目 Real-Time Voice Cloning Toolbox 和 Mocking Bird,也是采用类似的方案。在 Speaker Encoder、Synthesizer 和 Vocoder 阶段,都可以尝试不同的说话人编码器、合成器以及声码器组合。
针对一句话合成场景,PaddleSpeech 提供了多种模型的组合方案。
Speaker Encoder |
Synthesizer Vocoder |
Vocoder |
---|---|---|
GE2E / ECAPA-TDNN |
FastSpeech2 / Tacotron2 |
Parallel WaveGAN/ HiFiGAN |
一句话合成的效果受多说话人数据集和 Speaker Encoder 模型的影响较大,新发音人的声音会跟提取的 speaker embedding 在整个发音人向量空间中的最接近的那几个人的音色会比较像,因此一句话合成整体音色的效果因人而异,音色学习效果并不稳定。在能获取一定量的数据情况下,可以考虑小数据集微调方案。
近年来,手机助手、地图导航、有声阅读等产品陆续开始支持用户自定义音色播报,常见流程是用户先阅读指定文本,在等待一段时间后(需要等待十几分钟到数个小时不等),APP 可以使用用户的音色完成播报任务。这类应用多使用微调方案,在预训练模型的基础上进行微调,得到用户专属音色的相关模型。相比于一句话合成方案,该方案耗时更长,但具有更高的音色相似度和更好的音频质量。
PaddleSpeech 开源小样本微调方案,基于 aishell3 开源多说话人数据集得到预训练模型,通过少量音频数据,同样可以学习新发音人的音色。
基于 FastSpeech2 的小样本微调方案
以 FastSpeech2 模型为例,数据量特别小的情况下,我们可以选择固定模型结构中一些层,如 Encoder 和 Duration Predictor 等,让其不参与训练过程,以此来提高微调效果的稳定性。当数据的量级逐步增加,可以逐渐放开一部分网络层参与到训练的过程中来。不同的声学模型结构,有着不同微调方案,以 FastSpeech2 模型为例,从中文标准女声音库(Chinese Standard Mandarin Speech Copus)选择 200 句就可以很好的学习到原发音人的音色了,相较于原版 10000 句的量级,训练所需的数据量降低了 98% 以上。
以只冻结 Encoder 网络为例,大家可以体验一下不同量级微调的合成效果。
训练数据量 |
10句 |
200句 |
10000句 |
是否微调 |
是 |
是 | 否 |
训练时间 |
4分钟 |
8分钟 | 72小时 |
合成效果 | |
10句 |
|
200句 |
|
10000句 |
|
根据自己场景和业务的需要,也可以加大参与微调部分的数据量,进一步提高音色的稳定性和发音效果。相较于从零开始构建音库,通过微调方案制作定制化发音人音色所需的人力成本、时间成本以及模型的训练成本都显著降低。
多语言发音一直是语音合成场景中的强需求,在日常沟通过程中,很多句子会包含中英混合的词汇,比如 GPS 导航和 Java 工程师等等。针对中英双语场景,在制作音库时,通常会寻找能够进行中英双语播报的发音人录制音库,但是跟业务需求匹配同时能够双语播音的发音人筛选难度大,在录制过程中有时也会出现发音人英文口语表述不佳以及录音状态难以稳定等情况,导致最终合成的效果不佳。
PaddleSpeech 这次发布的跨语言学习方案可以让 0 英文样本的中文发音人(Chinese Standard Mandarin Speech Copus)实现同音色双语播报。
在音素集层面上使用多语言音素集,模型结构中增加多说话人 Speaker Embedding,在数据集构造方面,预训练中英混合模型使用标准女声数据集(CSMSC)、开源英文女声数据集(LJ Speech)以及开源多说话人数据集 aishell3 和 vctk 共同训练,可以实现 CSMSC 音色和 LJ Speech 音色同时支持中英双语播报,实现跨语言学习。
这套方案同样可以用于其它语言,比如在训练的音库中加入普通话、粤语、英文、日语等其它语种,可实现多发音人,多语言播报。在制作音库过程中,可以降低对发音人的语种能力条件要求,提高音库制作的稳定性,降低成本。
在这次的更新中,由文心大模型团队推出的语音-语言跨模态大模型文心 ERNIE-SAT 在飞桨语音套件 PaddleSpeech 中成功上线。文心大模型 ERNIE-SAT 采用语音-语言联合训练的方式在中文和英文的数据集上进行预训练,可以使模型学到语音和文本之间的对齐关系,生成频谱的精度更高,合成声音更加自然。
文心大模型 ERNIE-SAT 模型结构图
文心大模型 ERNIE-SAT 将语音和语言同时作为输入,通过 MASK 的方式对合成任务中部分区域掩盖,让模型自主学习前后的信息,并推断被 Mask 的部分的内容,相对于单模态的输入任务而言,文心大模型 ERNIE-SAT 可以更好地学习上下文关键信息,能够支持语音编辑、个性化语音合成与跨语言语音合成等多种语音下游任务。
在智能语音客服场景中,与用户交互有 TTS 合成音频和以人工提前进行录音两种方式。早期 TTS 合成的音频辨识度高,自然度不足,用户难以与机器人进行多轮对话,客服机器人会采用人工录音的方式进行补充,以提高对话流畅度,但是人工录音需要提前准备大量话术,且难以应用于具有变量插槽的话术,如催收场景中播报用户姓名,欠款,预期信息等。此时会采用人工录音+TTS 合成变量拼接的方式,但是存在人工录音音色与 TTS 合成变量音色不一致,拼接不自然的问题,使用文心大模型 ERNIE-SAT 的语音编辑功能,可以很自然的拼接人工录音和合成变量,流畅度相较于原先的方案更高。
10.18-10.20 日每晚 19:00,百度高工将联合语音之家社区为大家带来前沿语音技术直播讲解。欢迎大家扫码进群,获取课程链接!
由 PaddleSpeech 的核心开发者精心打造的免费公开课《飞桨 PaddleSpeech 语音技术课程》目前已经在 AI Studio 中上线,非常适合于零基础的开发者入门智能语音开发工作。课程内容会随着 PaddleSpeech 的发展建设,持续更新最前沿的技术,同样适合于具有开发经验的语音方向开发者们。让我们一起看看课程中有哪些内容吧!
课程内容持续更新中,欢迎大家前往 AI Studio 中报名参与课程。
https://aistudio.baidu.com/aistudio/course/introduce/25130?directly=1&shared=1
PaddleSpeech 建设过程中,也有很多开发者基于 PaddleSpeech 开发了许多有趣的项目。比如基于PaddleGAN 与PaddleSpeech的虚拟人项目 PaddleBoBo,基于 PaddleOCR 与 PaddleSpeech 的电表点读系统,基于 PaddleSpeech 语音识别能力的语音听写桌面应用等等。这些项目都可以在 AI Studio 中在线体验,并已收录到 PaddleSpeech 教程与精品项目合集中,欢迎大家前来体验。
https://aistudio.baidu.com/aistudio/projectdetail/4692119
感谢各位社区开发者的贡献
PaddleSpeech 自 2022.5.20 发布 1.0 版本以来,已经接收到 30+ 来自活跃开发者的代码贡献提交,其中有很多用户为我们实现了重要功能,如 :
GitHub 用户 @BarryKCL 将基于 BERT 的多音字预测模型 g2pw(https://github.com/GitYCC/g2pW) 转为 ONNX 格式模型引入 PaddleSpeech 的文本前端,使 g2p 的 wer(word error rate) 大幅度下降(0.0260 -> 0.0240)(pr 链接:https://github.com/PaddlePaddle/PaddleSpeech/pull/2230);
GitHub 用户 @HighCWu 为我们贡献了多说话人的 VITS 模型和基于 VITS 的Voice Cloning 和 Voice Conversion 代码示例(pr 链接:https://github.com/PaddlePaddle/PaddleSpeech/pull/2268);
GitHub 用户 @david-95 为我们贡献多个修复文本前端 badcase 的代码。
欢迎大家在 GitHub 中 Star 收藏,及时追踪最新发布!
【GitHub】
https://github.com/PaddlePaddle/PaddleSpeech
【Gitee】
技术开源,点赞三连↓