Many state-of-the-art neural network-based source separation systems use the averaged Signal-to-Distortion Ratio (SDR) as a training objective function. The basic SDR is, however, undefined if the network reconstructs the reference signal perfectly or if the reference signal contains silence, e.g., when a two-output separator processes a single-speaker recording. Many modifications to the plain SDR have been proposed that trade-off between making the loss more robust and distorting its value. We propose to switch from a mean over the SDRs of each individual output channel to a global SDR over all output channels at the same time, which we call source-aggregated SDR (SA-SDR). This makes the loss robust against silence and perfect reconstruction as long as at least one reference signal is not silent. We experimentally show that our proposed SA-SDR is more stable and preferable over other well-known modifications when processing meeting-style data that typically contains many silent or single-speaker regions.


翻译:许多最先进的神经网络源分离系统使用平均信号对扭曲比率(SDR)作为培训目标功能。但是,如果网络完全重建参考信号,或者参考信号含有沉默,例如,当一个双输出分隔器处理单声波记录时,基本特别提款权是没有定义的。对普通特别提款权的许多修改建议是,在使损失更加稳健和扭曲其价值之间作出权衡。我们提议从每个单个输出渠道的比重转换为全球特别提款权,同时将所有产出渠道的比重转换为全球特别提款权,我们称之为源隔离特别提款权(SA-SDR)。只要至少有一个参考信号没有沉默,就使得失去沉默和完全重建成为强势。我们实验性地表明,在处理通常包含许多静音或单声调区域的会议模式数据时,我们提议的南南特别提款权比其他众所周知的修改更稳定、更可取。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年8月4日
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
19+阅读 · 2021年4月1日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
专知会员服务
60+阅读 · 2020年3月19日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年12月31日
Arxiv
0+阅读 · 2021年12月31日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
相关VIP内容
专知会员服务
16+阅读 · 2021年8月4日
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
19+阅读 · 2021年4月1日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
专知会员服务
60+阅读 · 2020年3月19日
相关资讯
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员