Multi-talker conversational speech processing has drawn many interests for various applications such as meeting transcription. Speech separation is often required to handle overlapped speech that is commonly observed in conversation. Although the original utterancelevel permutation invariant training-based continuous speech separation approach has proven to be effective in various conditions, it lacks the ability to leverage the long-span relationship of utterances and is computationally inefficient due to the highly overlapped sliding windows. To overcome these drawbacks, we propose a novel training scheme named Group-PIT, which allows direct training of the speech separation models on the long-form speech with a low computational cost for label assignment. Two different speech separation approaches with Group-PIT are explored, including direct long-span speech separation and short-span speech separation with long-span tracking. The experiments on the simulated meeting-style data demonstrate the effectiveness of our proposed approaches, especially in dealing with a very long speech input.


翻译:多对话者语音处理为会议记录等各种应用程序吸引了许多兴趣,例如会议录音誊本;处理谈话中常见的重叠演讲往往需要将发言分开处理;虽然最初的语音级别变异,基于不同培训的连续语音分离方法在各种条件下都证明是有效的,但是它缺乏利用长长的发音关系的能力,而且由于高度重叠的滑动窗口,计算效率低下;为了克服这些缺点,我们提议了一个名为Group-PIT的新培训计划,允许对长式演讲分离模式进行直接培训,对标签分配采用较低的计算成本;探索了与Group-PIT的两种不同的语音分离方法,包括直接长式讲话分离和短式语音分离,并进行长式跟踪;模拟会议式数据实验显示了我们拟议方法的有效性,特别是在处理长式语音输入方面。

0
下载
关闭预览

相关内容

【干货书】R语言探索性数据分析,218页pdf
专知会员服务
61+阅读 · 2021年9月14日
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
39+阅读 · 2020年7月27日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
生物探索
3+阅读 · 2018年2月10日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
8+阅读 · 2018年11月27日
Arxiv
3+阅读 · 2018年8月17日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员