This paper presents a new convolutional neural network (CNN) architecture for audio pattern recognition tasks. We propose a novel technique for reducing the computational complexity of models and introduce the corresponding hyper-parameter in CNN architecture. Using optimal values of this parameter, we also can save or even increase the performance of models. This observation can be confirmed by experiments on three datasets: the AudioSet dataset, the ESC-50 dataset, and RAVDESS. Our best model achieves an mAP of 0.450 on the AudioSet dataset, which is less than the performance of the state-of-the-art model, but our model is 7.1x faster and 9.7x smaller in parameter size. On the ESC-50 dataset and RAVDESS, we obtain state-of-the-art results with accuracies of 0.961 and 0.748, respectively. Our best model for the ESC-50 dataset is 1.7x faster and 2.3x smaller than the previous best model. For RAVDESS, our best model is 3.3x smaller than the state-of-the-art model. We call our models ''ERANNs'' (Efficient Residual Audio Neural Networks).


翻译:本文展示了用于音频模式识别任务的新型进化神经网络(CNN)结构。 我们提出了减少模型计算复杂性的新技术,并在CNN结构中引入了相应的超参数。 使用该参数的最佳值, 我们还可以保存甚至提高模型的性能。 可以通过三个数据集的实验来证实这一观测: 音频Set数据集、 ESC- 50 数据集和 RAVDESS。 我们的最佳模型在音频Set 数据集上达到0. 450 的 mAP, 低于最新模型的性能, 但是我们的模型比参数大小小7.1x快9. 7x。 在 ESC- 50 数据集和 RAVDESS 中, 我们获得最新技术结果, 其精度分别为 0. 961 和 0. 748 。 我们的 ESC- 50 数据集的最佳模型比先前的最佳模型快1.7x 和 2.3x 更小。 对于RAVDESS, 我们的最佳模型比状态神经模型小3.3x 。 我们称我们模型“ Qal-ER’ AS's ASyal ANNER's's's ASyal- Nalffffyalnetworks.

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
12+阅读 · 2021年3月25日
一份简单《图神经网络》教程,28页ppt
专知会员服务
126+阅读 · 2020年8月2日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
26+阅读 · 2020年7月19日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
61+阅读 · 2020年5月9日
专知会员服务
61+阅读 · 2020年3月19日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
ActivityNet Challenge 2017 冠军方案分享
极市平台
4+阅读 · 2017年7月25日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
SlowFast Networks for Video Recognition
Arxiv
19+阅读 · 2018年12月10日
Stock Chart Pattern recognition with Deep Learning
Arxiv
6+阅读 · 2018年8月1日
Arxiv
15+阅读 · 2018年2月4日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
相关VIP内容
专知会员服务
12+阅读 · 2021年3月25日
一份简单《图神经网络》教程,28页ppt
专知会员服务
126+阅读 · 2020年8月2日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
26+阅读 · 2020年7月19日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
61+阅读 · 2020年5月9日
专知会员服务
61+阅读 · 2020年3月19日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
39+阅读 · 2020年2月21日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Top
微信扫码咨询专知VIP会员