Music source separation represents the task of extracting all the instruments from a given song. Recent breakthroughs on this challenge have gravitated around a single dataset, MUSDB, limited to four instrument classes only. Larger datasets and more instruments are costly and time-consuming in collecting data and training deep neural networks (DNNs). In this work, we propose a fast method to evaluate the separability of instruments in any dataset without training and tuning a DNN. This separability measure helps to select appropriate samples for the efficient training of neural networks. Based on the oracle principle with an ideal ratio mask, our approach is an excellent proxy to estimate the separation performances of state-of-the-art deep learning approaches based on Time-Frequency (TF) masking such as TasNet or Open-Unmix. Our results indicate that even if TasNet has the freedom to learn a latent space where instruments would be separated efficiently by a masking process, this space is no better than the TF representation.


翻译:音乐源分离代表着从某首歌中提取所有乐器的任务。 最近关于这一挑战的突破围绕一个数据集( MUSDB, 仅限于4个仪器类)引来。 更大的数据集和更多的仪器在收集数据和培训深神经网络( DNNs)方面成本高且耗时。 在这项工作中,我们提出了一个快速的方法来评价任何数据集中仪器的分离性,而不培训和调制 DNN。 这一分离性措施有助于为神经网络的有效培训选择适当的样本。 基于一个带有理想比率掩码的奥克莱原则, 我们的方法极好地替代了基于时间- 宽度掩码( TasNet ) 或 Open- Unmix 等最新深度学习方法的分离性能。 我们的结果表明,即使TasNet 能够自由学习通过掩码过程有效分离仪器的潜在空间,但这一空间并不比TF 代表系统更好。

0
下载
关闭预览

相关内容

MATLAB玩转深度学习?新书「MATLAB Deep Learning」162页pdf
专知会员服务
102+阅读 · 2020年1月13日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
155+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
1+阅读 · 2021年6月17日
Arxiv
0+阅读 · 2021年6月15日
Arxiv
27+阅读 · 2020年12月24日
Arxiv
11+阅读 · 2020年12月2日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
【推荐】直接未来预测:增强学习监督学习
机器学习研究会
6+阅读 · 2017年11月24日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员