我们介绍了Colorization Transformer,这是一种基于自注意力,多样化的高保真图像着色的新颖方法。给定灰度图像,着色过程分三个步骤进行。我们首先使用条件自回归Transformer产生灰度图像的低分辨率粗色。我们的体系结构采用条件transformer层来有效调节灰度输入。随后的两个完全并行网络将粗糙的彩色低分辨率图像上采样为精细的彩色高分辨率图像。从Colorization Transformer进行采样可生成多种颜色,其保真度优于基于FID结果和在Mechanical Turk测试中的人工评估为ImageNet着色的最新技术。值得注意的是,在超过60%的情况下,人类评估师更喜欢三种生成的着色中评分最高的事实,而不是事实。

https://openreview.net/forum?id=5NA1PinlGFu

成为VIP会员查看完整内容
9

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
56+阅读 · 2021年3月3日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
【AAAI2021】双级协作变换器Transformer图像描述生成
专知会员服务
26+阅读 · 2021年1月26日
专知会员服务
41+阅读 · 2021年1月18日
最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
推出 2020 年图像匹配基准和挑战赛
谷歌开发者
5+阅读 · 2020年4月14日
GAN用于无监督表征学习,效果依然惊人……
机器之心
12+阅读 · 2019年7月9日
还在脑补画面?这款GAN能把故事画出来
机器之心
5+阅读 · 2019年7月6日
能生成逼真图像的不只有 GAN
机器学习算法与Python学习
8+阅读 · 2019年6月6日
人脸专集5 | 最新的图像质量评价
计算机视觉战队
27+阅读 · 2019年4月13日
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
3+阅读 · 2019年9月5日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
6+阅读 · 2018年1月14日
VIP会员
相关VIP内容
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
56+阅读 · 2021年3月3日
【AAAI2021】生成式Transformer的对比三元组提取
专知会员服务
49+阅读 · 2021年2月7日
【AAAI2021】双级协作变换器Transformer图像描述生成
专知会员服务
26+阅读 · 2021年1月26日
专知会员服务
41+阅读 · 2021年1月18日
最新《Transformers模型》教程,64页ppt
专知会员服务
308+阅读 · 2020年11月26日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
相关资讯
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
推出 2020 年图像匹配基准和挑战赛
谷歌开发者
5+阅读 · 2020年4月14日
GAN用于无监督表征学习,效果依然惊人……
机器之心
12+阅读 · 2019年7月9日
还在脑补画面?这款GAN能把故事画出来
机器之心
5+阅读 · 2019年7月6日
能生成逼真图像的不只有 GAN
机器学习算法与Python学习
8+阅读 · 2019年6月6日
人脸专集5 | 最新的图像质量评价
计算机视觉战队
27+阅读 · 2019年4月13日
相关论文
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
3+阅读 · 2019年9月5日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
6+阅读 · 2018年1月14日
微信扫码咨询专知VIP会员