How to robustly rank the aesthetic quality of given images has been a long-standing ill-posed topic. Such challenge stems mainly from the diverse subjective opinions of different observers about the varied types of content. There is a growing interest in estimating the user agreement by considering the standard deviation of the scores, instead of only predicting the mean aesthetic opinion score. Nevertheless, when comparing a pair of contents, few studies consider how confident are we regarding the difference in the aesthetic scores. In this paper, we thus propose (1) a re-adapted multi-task attention network to predict both the mean opinion score and the standard deviation in an end-to-end manner; (2) a brand-new confidence interval ranking loss that encourages the model to focus on image-pairs that are less certain about the difference of their aesthetic scores. With such loss, the model is encouraged to learn the uncertainty of the content that is relevant to the diversity of observers' opinions, i.e., user disagreement. Extensive experiments have demonstrated that the proposed multi-task aesthetic model achieves state-of-the-art performance on two different types of aesthetic datasets, i.e., AVA and TMGA.


翻译:如何对特定图像的审美质量进行稳健的排序是一个长期错误的专题,这种挑战主要来自不同观察者对不同类型内容的不同主观观点。人们越来越有兴趣通过考虑分数的标准偏差来估计用户协议,而不是仅仅预测平均审美评分。然而,在比较一对内容时,很少有研究考虑我们对审美评分差异的自信程度。因此,我们提议(1) 重新调整多任务关注网络,以预测平均评分和最终标准偏差;(2) 品牌新信任期排名损失,鼓励模型侧重于不太确定其审美评分差异的图像批量。随着这种损失,鼓励模型了解与观察者意见多样性有关的内容的不确定性,即用户的不同意见。广泛的实验表明,拟议的多任务审美模型在两种不同类型的审美数据集上取得了状态和艺术表现,即A.A.A.A.A.A.A.A.A.A.A.A.和A.A.A.A.A.A.A.A.A.A.A.A.A.A.A.A.和A.A.A.A.A.A.A.A.

0
下载
关闭预览

相关内容

标准差(Standard Deviation),在概率统计中最常使用作为统计分布程度(statistical dispersion)上的测量。标准差定义为方差的算术平方根,反映组内个体间的离散程度。测量到分布程度的结果,原则上具有两种性质:一个总量的标准差或一个随机变量的标准差,及一个子集合样品数的标准差之间,有所差别。标准差的观念是由卡尔·皮尔逊(Karl Pearson)引入到统计中。
【CVPR2021】多实例主动学习目标检测
专知会员服务
43+阅读 · 2021年4月18日
【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
78+阅读 · 2021年1月30日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
ASM-Net:可解释的美学评分及图像剪裁
AI科技评论
6+阅读 · 2019年12月2日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Arxiv
31+阅读 · 2021年6月30日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
7+阅读 · 2020年10月9日
VIP会员
相关资讯
ASM-Net:可解释的美学评分及图像剪裁
AI科技评论
6+阅读 · 2019年12月2日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Top
微信扫码咨询专知VIP会员