Recently, deep-learning-based super-resolution methods have achieved excellent performances, but mainly focus on training a single generalized deep network by feeding numerous samples. Yet intuitively, each image has its representation, and is expected to acquire an adaptive model. For this issue, we propose a novel image-specific convolutional kernel modulation (IKM) by exploiting the global contextual information of image or feature to generate an attention weight for adaptively modulating the convolutional kernels, which outperforms the vanilla convolution and several existing attention mechanisms while embedding into the state-of-the-art architectures without any additional parameters. Particularly, to optimize our IKM in mini-batch training, we introduce an image-specific optimization (IsO) algorithm, which is more effective than the conventional mini-batch SGD optimization. Furthermore, we investigate the effect of IKM on the state-of-the-art architectures and exploit a new backbone with U-style residual learning and hourglass dense block learning, terms U-Hourglass Dense Network (U-HDN), which is an appropriate architecture to utmost improve the effectiveness of IKM theoretically and experimentally. Extensive experiments on single image super-resolution show that the proposed methods achieve superior performances over state-of-the-art methods. Code is available at github.com/YuanfeiHuang/IKM.


翻译:最近,基于深层次学习的超分辨率方法取得了卓越的成绩,但主要侧重于通过喂食众多样本来培训一个通用的深度网络。然而,直观地说,每个图像都有其代表性,并有望获得一个适应性模型。对于这一问题,我们建议采用一种新的图像特定集成内核调制(IKM)算法(IKM),利用图像或特征的全球背景信息,为适应性调节组合核心产生关注份量,这超越了香草卷和若干现有关注机制,同时在没有任何附加参数的情况下嵌入最先进的结构。特别是,为了在微型批量培训中优化我们的IKM(IKM),我们引入了一种针对图像的优化(ISO)算法(IK),这比传统的小型组合SGD优化更有效。此外,我们调查了IKM(IKM(UHDN)对国有残余学习和高玻璃块学习的新骨架,用UHC-Cyclas Dense Net(UHDN) 术语,这是一种高层次的高级实验方法,可以用来改进国家/HIBI-H)的高级图像。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
最新《Transformers模型》教程,64页ppt
专知会员服务
312+阅读 · 2020年11月26日
专知会员服务
16+阅读 · 2020年7月27日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
7+阅读 · 2020年3月1日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
Top
微信扫码咨询专知VIP会员