Single channel speech separation has experienced great progress in the last few years. However, training neural speech separation for a large number of speakers (e.g., more than 10 speakers) is out of reach for the current methods, which rely on the Permutation Invariant Loss (PIT). In this work, we present a permutation invariant training that employs the Hungarian algorithm in order to train with an $O(C^3)$ time complexity, where $C$ is the number of speakers, in comparison to $O(C!)$ of PIT based methods. Furthermore, we present a modified architecture that can handle the increased number of speakers. Our approach separates up to $20$ speakers and improves the previous results for large $C$ by a wide margin.


翻译:过去几年来,单一频道的语音分离取得了巨大进展,然而,对大量发言者(例如10多个发言者)进行神经语音分离培训,目前的方法无法采用,这些方法依赖于变异性变异性损失(PIT),在这项工作中,我们提供了一种变异性培训,采用匈牙利算法,以便用3美元的时间复杂度来培训,与基于PIT方法的1美元(C)相比,其发言者数为1美元。此外,我们提出了一个经修改的结构,可以处理增加的发言者人数。我们的方法将发言者分为最多20美元,并大幅度地改进以前大额C$的成绩。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年5月21日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
111+阅读 · 2020年5月15日
专知会员服务
61+阅读 · 2020年3月19日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
8+阅读 · 2018年11月27日
VIP会员
Top
微信扫码咨询专知VIP会员