This paper introduces S3PRL-VC, an open-source voice conversion (VC) framework based on the S3PRL toolkit. In the context of recognition-synthesis VC, self-supervised speech representation (S3R) is valuable in its potential to replace the expensive supervised representation adopted by state-of-the-art VC systems. Moreover, we claim that VC is a good probing task for S3R analysis. In this work, we provide a series of in-depth analyses by benchmarking on the two tasks in VCC2020, namely intra-/cross-lingual any-to-one (A2O) VC, as well as an any-to-any (A2A) setting. We also provide comparisons between not only different S3Rs but also top systems in VCC2020 with supervised representations. Systematic objective and subjective evaluation were conducted, and we show that S3R is comparable with VCC2020 top systems in the A2O setting in terms of similarity, and achieves state-of-the-art in S3R-based A2A VC. We believe the extensive analysis, as well as the toolkit itself, contribute to not only the S3R community but also the VC community. The codebase is now open-sourced.


翻译:本文介绍了基于S3PRL工具包的开放源码语音转换框架S3PRL-VC。在承认合成VC的背景下,自我监督的语音代表(S3R)对于取代由最先进的VC系统采用的昂贵的监管代表(S3PRL-VC)的潜力是宝贵的。此外,我们声称,VC是S3R分析的良好检验任务。在这项工作中,我们提供了一系列深入分析,为VCC2020的两种任务设定基准,即内部/跨语言的一对一(A2O) VC,以及任何对一(A2A)的设置。我们不仅对不同的S3R和VCC2020的顶级系统进行了比较,还进行了监督演示。我们进行了系统客观和主观的评估,我们表明S3R在类似性方面与A2O的VCC2020顶级系统具有可比性,并且实现了S3R基础的A2R-一对一对一(A2O)一(A2O)一(A2O)一(A2O)一(VA)一)一至一(A2A2A2A)一(A)一)一)一(O(O)一)二(S2A2A2A)二(S2A)一)一(S2A(S2A)二(S2A)一(S2A2A)一)一(S)一(S-A)一(S-O(A)一)一)一(S-3A(S-3A3A3A3A)一)一(S-3A)一(S-3A-O(S-3A)一)一(S-O)一(S-O(S-3A)一)一)系统本身本身也认为广泛的分析本身是广泛的工具本身是开放的系统本身是广泛的分析,我们认为是开放的系统本身的系统本身是开放的系统本身也是对二)本身是开放的系统本身是广泛的分析,也是开放的系统本身也是开放的系统本身是广泛的分析。S-3-S-S-3-S-FC)和S-S-S-FGFGFC)本身是广泛的工具。我们认为广泛的工具本身是广泛的分析。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
A Survey on Deep Learning for Named Entity Recognition
Arxiv
26+阅读 · 2020年3月13日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员