Following the major successes of self-attention and Transformers for image analysis, we investigate the use of such attention mechanisms in the context of Image Quality Assessment (IQA) and propose a novel full-reference IQA method, Vision Transformer for Attention Modulated Image Quality (VTAMIQ). Our method achieves competitive or state-of-the-art performance on the existing IQA datasets and significantly outperforms previous metrics in cross-database evaluations. Most patch-wise IQA methods treat each patch independently; this partially discards global information and limits the ability to model long-distance interactions. We avoid this problem altogether by employing a transformer to encode a sequence of patches as a single global representation, which by design considers interdependencies between patches. We rely on various attention mechanisms -- first with self-attention within the Transformer, and second with channel attention within our difference modulation network -- specifically to reveal and enhance the more salient features throughout our architecture. With large-scale pre-training for both classification and IQA tasks, VTAMIQ generalizes well to unseen sets of images and distortions, further demonstrating the strength of transformer-based networks for vision modelling.


翻译:继自我注意和变换者在图像分析方面取得重大成功之后,我们调查了在图像质量评估(IQA)背景下使用这类关注机制的情况,并提出了一种新的全面参考 IQA 方法,即《关注感光变换图像质量(VTAMIQ) 》 。我们的方法在现有的IQA数据集上实现了竞争性或最先进的表现,大大优于跨数据库评价的以往衡量标准。大多数不完全的IQA方法独立地对待每个补丁;这部分抛弃了全球信息,限制了模拟长距离互动的能力。我们完全避免了这一问题,我们使用一个变异器将一系列补丁编码成单一的全球代表,通过设计来考虑补丁之间的相互依存性。我们依靠各种注意机制 -- -- 首先在变异调中进行自我注意,其次是在差异调控网内进行专注 -- -- 具体显示和加强我们整个结构中更为突出的特征。在进一步进行分类和IQA任务培训之前,VTAMIQG一般地将基于图像的变形能力网络展示为各种视像模型。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
专知会员服务
25+阅读 · 2021年4月2日
【ICLR2021】彩色化变换器,Colorization Transformer
专知会员服务
9+阅读 · 2021年2月9日
最新《Transformers模型》教程,64页ppt
专知会员服务
309+阅读 · 2020年11月26日
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
ACL 2018 计算语言学协会接受论文列表
专知
3+阅读 · 2018年4月27日
【推荐】深度学习时序处理文献列表
机器学习研究会
7+阅读 · 2017年11月29日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Arxiv
15+阅读 · 2021年7月14日
Image Captioning: Transforming Objects into Words
Arxiv
7+阅读 · 2019年6月14日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关资讯
一文读懂Attention机制
机器学习与推荐算法
63+阅读 · 2020年6月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉领域顶会CVPR 2018 接受论文列表
ACL 2018 计算语言学协会接受论文列表
专知
3+阅读 · 2018年4月27日
【推荐】深度学习时序处理文献列表
机器学习研究会
7+阅读 · 2017年11月29日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Top
微信扫码咨询专知VIP会员