We propose an efficient neural network for RAW image denoising. Although neural network-based denoising has been extensively studied for image restoration, little attention has been given to efficient denoising for compute limited and power sensitive devices, such as smartphones and smartwatches. In this paper, we present a novel architecture and a suite of training techniques for high quality denoising in mobile devices. Our work is distinguished by three main contributions. (1) Feature-Align layer that modulates the activations of an encoder-decoder architecture with the input noisy images. The auto modulation layer enforces attention to spatially varying noise that tend to be "washed away" by successive application of convolutions and non-linearity. (2) A novel Feature Matching Loss that allows knowledge distillation from large denoising networks in the form of a perceptual content loss. (3) Empirical analysis of our efficient model trained to specialize on different noise subranges. This opens additional avenue for model size reduction by sacrificing memory for compute. Extensive experimental validation shows that our efficient model produces high quality denoising results that compete with state-of-the-art large networks, while using significantly fewer parameters and MACs. On the Darmstadt Noise Dataset benchmark, we achieve a PSNR of 48.28dB, while using 263 times fewer MACs, and 17.6 times fewer parameters than the state-of-the-art network, which achieves 49.12dB.
翻译:我们建议建立一个高效的神经网络网络网络,用于RAW 图像解密。 虽然已经为图像恢复对神经网络解密进行了广泛的研究, 但很少注意对智能手机和智能观察等有限和电源敏感设备进行高效分解, 例如智能手机和智能观察。 在本文中, 我们提出了一个新型架构和一套用于移动设备高质量分解的训练技术。 我们的工作有三大贡献。 (1) 以输入的噪音图像来调节编码解密结构的启动的特性- Align 层。 汽车调节层强制关注空间上不同的声音,这些噪音往往会通过连续应用演进和非线性来“洗去 ” 。 (2) 新的“ 匹配损失”, 使得能够以感知性内容损失的形式从大型分解网络中蒸发知识。 (3) 对我们经过专门训练的关于不同噪音子系的有效模型进行实证性分析。 这为通过牺牲记忆来减少模型规模缩小模型规模开辟了更多途径。 广泛实验校验显示, 我们高效的模型在使用大型数据库时, 达标时, 达 基准 达 达 标 标 达 标 时间, 达 达 达 达 的 的 达 达 标 达 的 达 达 的 的 达 达 达 达 标 的 达 达 的 的 达 达 达 达 达 达 的 的 达 达 的 的 达 的 的 标 的 达 达 达 达 达 达 的 的 的 达 的 的 达 的 的 达 达 的 的 的 的 的 达 达 的 达 达 的 的 达 的 的 达 达 的 的 达 达 达 达 达 达 达 达 的 达 达 达 达 的 的 达 达 的 达 达 达 达 达 达 的 达 达 达 达 达 达 达 的 的 的 的 的 达 的 的 达 达 达 达 达 达 达 达 达 达 达 达 达