The explosive growth of image data facilitates the fast development of image processing and computer vision methods for emerging visual applications, meanwhile introducing novel distortions to the processed images. This poses a grand challenge to existing blind image quality assessment (BIQA) models, failing to continually adapt to such subpopulation shift. Recent work suggests training BIQA methods on the combination of all available human-rated IQA datasets. However, this type of approach is not scalable to a large number of datasets, and is cumbersome to incorporate a newly created dataset as well. In this paper, we formulate continual learning for BIQA, where a model learns continually from a stream of IQA datasets, building on what was learned from previously seen data. We first identify five desiderata in the new setting with a measure to quantify the plasticity-stability trade-off. We then propose a simple yet effective method for learning BIQA models continually. Specifically, based on a shared backbone network, we add a prediction head for a new dataset, and enforce a regularizer to allow all prediction heads to evolve with new data while being resistant to catastrophic forgetting of old data. We compute the quality score by an adaptive weighted summation of estimates from all prediction heads. Extensive experiments demonstrate the promise of the proposed continual learning method in comparison to standard training techniques for BIQA.


翻译:图像数据的爆炸性增长有助于为新出现的视觉应用快速开发图像处理和计算机视觉方法,同时对已处理的图像进行新的扭曲,这对现有的盲人图像质量评估模型构成巨大挑战,无法不断适应这种亚人口变化。最近的工作建议对BIQA方法进行关于所有现有人标的IQA数据集组合的培训。然而,这种类型方法不能伸缩到大量数据集,也难以纳入新创建的数据集。在本文中,我们为BIQA制定不断学习的BIQA模型,该模型不断从IQA数据集流中学习,以从以往数据中汲取的知识为基础。我们首先在新的设置中确定5种偏差,同时采取措施量化可塑性可塑性交易。然后我们提出一个简单而有效的方法,用以持续学习BIQA模型模型。具体地说,基于一个共享的骨干网络,我们为新数据集添加了一个预测头,并强制执行一个定期化器,以便所有预测头都能够与新数据一起进进,同时从IQA数据集流中不断学习新数据,同时要抵制从以前所看到的数据。我们提出的B级预测质量的升级方法,我们通过学习了对旧数据进行升级的升级的升级的升级的升级的学习。我们通过学习了对旧数据进行升级的升级的测试的方法。我们学习了一种方法,以学习了对旧的升级式的升级式的升级式的进度。我们学习了对Q的升级式的进度。我们学习了对Q的升级式的进度。我们学习了对旧数据的升级的进度。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
元学习(meta learning) 最新进展综述论文
专知会员服务
278+阅读 · 2020年5月8日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
Arxiv
0+阅读 · 2021年4月14日
Arxiv
0+阅读 · 2021年4月14日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Arxiv
12+阅读 · 2020年8月3日
Arxiv
4+阅读 · 2019年11月25日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
论文浅尝 |「知识表示学习」专题论文推荐
开放知识图谱
13+阅读 · 2018年2月12日
相关论文
Arxiv
0+阅读 · 2021年4月14日
Arxiv
0+阅读 · 2021年4月14日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
Arxiv
12+阅读 · 2020年8月3日
Arxiv
4+阅读 · 2019年11月25日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
4+阅读 · 2019年4月9日
Top
微信扫码咨询专知VIP会员