Deep neural networks have achieved remarkable success in computer vision tasks. Existing neural networks mainly operate in the spatial domain with fixed input sizes. For practical applications, images are usually large and have to be downsampled to the predetermined input size of neural networks. Even though the downsampling operations reduce computation and the required communication bandwidth, it removes both redundant and salient information obliviously, which results in accuracy degradation. Inspired by digital signal processing theories, we analyze the spectral bias from the frequency perspective and propose a learning-based frequency selection method to identify the trivial frequency components which can be removed without accuracy loss. The proposed method of learning in the frequency domain leverages identical structures of the well-known neural networks, such as ResNet-50, MobileNetV2, and Mask R-CNN, while accepting the frequency-domain information as the input. Experiment results show that learning in the frequency domain with static channel selection can achieve higher accuracy than the conventional spatial downsampling approach and meanwhile further reduce the input data size. Specifically for ImageNet classification with the same input size, the proposed method achieves 1.41% and 0.66% top-1 accuracy improvements on ResNet-50 and MobileNetV2, respectively. Even with half input size, the proposed method still improves the top-1 accuracy on ResNet-50 by 1%. In addition, we observe a 0.8% average precision improvement on Mask R-CNN for instance segmentation on the COCO dataset.


翻译:深心神经网络在计算机视觉任务中取得了显著的成功。 现有的神经网络主要在空间领域运行,具有固定的输入大小。 在实际应用中,图像通常大,必须缩小于神经网络的预定输入大小。 尽管下下取样操作减少了计算和所需的通信带宽,但它会明显地消除冗余和突出的信息,从而导致精确度下降。 在数字信号处理理论的启发下,我们从频率角度分析光谱偏差,并提议基于学习的频率选择方法,以确定可以在不准确损失的情况下删除的微小频率组件。 拟议的频域网络学习方法利用众所周知的神经网络的相同结构,如ResNet-50、 MobileNetV2和Mack R-CNN,同时接受作为输入的频域网信息。 实验结果显示,通过静态频道选择在频率域的学习可以比传统的空间下取样方法更精确度更高,同时进一步减少输入数据大小。 在相同的输入实例分类中,提议的频率域域网学习方法将达到1.41% 和0.66% 移动网络的高级精确度改进,在SR- AS- AS- AS- hal- hold AS- hill AS- hill 上, AS- AS- hill AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- 0. 1 AS- AS- AS- AS- AS- AS- AS- AL- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AL- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS- AS

11
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
15+阅读 · 2018年6月23日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员