As the computing power of modern hardware is increasing strongly, pre-trained deep learning models (e.g., BERT, GPT-3) learned on large-scale datasets have shown their effectiveness over conventional methods. The big progress is mainly contributed to the representation ability of transformer and its variant architectures. In this paper, we study the low-level computer vision task (e.g., denoising, super-resolution and deraining) and develop a new pre-trained model, namely, image processing transformer (IPT). To maximally excavate the capability of transformer, we present to utilize the well-known ImageNet benchmark for generating a large amount of corrupted image pairs. The IPT model is trained on these images with multi-heads and multi-tails. In addition, the contrastive learning is introduced for well adapting to different image processing tasks. The pre-trained model can therefore efficiently employed on desired task after fine-tuning. With only one pre-trained model, IPT outperforms the current state-of-the-art methods on various low-level benchmarks. Code is available at https://github.com/huawei-noah/Pretrained-IPT and https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/IPT


翻译:由于现代硬件的计算能力正在大大增强,在大型数据集方面受过预先训练的深层次学习模式(如BERT、GPT-3)已经表明其相对于常规方法的效用,大的进展主要有助于变压器及其变异结构的代表性能力。在本文中,我们研究低层次的计算机视觉任务(如脱色、超分辨率和脱线),并开发新的经过训练的模型,即图像处理变压器(IPT)。为了最大限度地挖掘变压器的能力,我们提出利用众所周知的图像网基准来产生大量腐蚀图像配对。IPT模型是用多头和多尾图像来进行这些图像培训的。此外,还引入了对比学习,以便很好地适应不同的图像处理任务。因此,经过精细调整的模型可以有效地用于所要完成的任务。只有一种经过训练的模型,IPT/PT在各种低层次基准上超越了目前的状态/工艺方法。代码可在 https://poros/ train_Igreat/streat/ https/retores/retoriment/reament/reament/reg-rah/s/s/travial_hub.comms/comm/reat/reabs)。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2021年6月1日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
最新《Transformers模型》教程,64页ppt
专知会员服务
304+阅读 · 2020年11月26日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
多图带你读懂 Transformers 的工作原理
AI研习社
10+阅读 · 2019年3月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
教程帖:深度学习模型的部署
论智
8+阅读 · 2018年1月20日
Image Fusion Transformer
Arxiv
2+阅读 · 2021年7月20日
Arxiv
8+阅读 · 2020年10月9日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
多图带你读懂 Transformers 的工作原理
AI研习社
10+阅读 · 2019年3月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
教程帖:深度学习模型的部署
论智
8+阅读 · 2018年1月20日
相关论文
Image Fusion Transformer
Arxiv
2+阅读 · 2021年7月20日
Arxiv
8+阅读 · 2020年10月9日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
4+阅读 · 2018年3月14日
Top
微信扫码咨询专知VIP会员