The recent success of NeRF and other related implicit neural representation methods has opened a new path for continuous image representation, where pixel values no longer need to be looked up from stored discrete 2D arrays but can be inferred from neural network models on a continuous spatial domain. Although the recent work LIIF has demonstrated that such novel approach can achieve good performance on the arbitrary-scale super-resolution task, their upscaled images frequently show structural distortion due to the faulty prediction on high-frequency textures. In this work, we propose UltraSR, a simple yet effective new network design based on implicit image functions in which spatial coordinates and periodic encoding are deeply integrated with the implicit neural representation. We show that spatial encoding is indeed a missing key towards the next-stage high-accuracy implicit image function through extensive experiments and ablation studies. Our UltraSR sets new state-of-the-art performance on the DIV2K benchmark under all super-resolution scales comparing to previous state-of-the-art methods. UltraSR also achieves superior performance on other standard benchmark datasets in which it outperforms prior works in almost all experiments. Our code will be released at https://github.com/SHI-Labs/UltraSR-Arbitrary-Scale-Super-Resolution.


翻译:NeRF和其他相关的隐含神经代表方法最近的成功为连续图像显示开辟了一条新的道路,使像素值不再需要从存储的离散 2D 阵列中查取,而可以从连续空间域的神经网络模型中推断出来。虽然LIIF最近的工作表明,这种新颖方法可以在任意规模超分辨率任务上取得良好表现,但由于对高频纹理的错误预测,其升级图像经常显示结构扭曲。在这项工作中,我们提议UltraSR,这是一个简单而有效的新网络设计,其基础是隐含图像功能,其中空间坐标和定期编码与隐含神经代表深度融合。我们表明,空间编码确实缺少了通过广泛实验和膨胀研究实现下一阶段高准确性隐含图像功能的关键。我们的UltraSR根据所有超清晰度尺度对DIV2K基准设定新的状态性能表现,与以往的状态-艺术方法相比。UltraSR还提议,在其他标准基准数据集上实现优等优性性性性表现,在这种基准数据集中,空间坐标将超过先前的分辨率/RA/B/Risalimalimalimalex。我们代码将在几乎所有的实验中发布。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
已删除
将门创投
3+阅读 · 2020年8月3日
Arxiv
9+阅读 · 2018年5月7日
VIP会员
相关VIP内容
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
相关资讯
已删除
将门创投
3+阅读 · 2020年8月3日
Top
微信扫码咨询专知VIP会员