业界 | 图鸭科技获CVPR 2018图像压缩挑战赛单项冠军,技术解读端到端图像压缩框架

2018 年 6 月 21 日 机器之心

机器之心报道

参与:晓坤、路


CHALLENGE ON LEARNED IMAGE COMPRESSION 挑战赛由 Google、Twitter、Amazon 等公司联合赞助,是第一个由计算机视觉领域的会议发起的图像压缩挑战赛,旨在将神经网络、深度学习等一些新的方式引入到图像压缩领域。据 CVPR 大会官方介绍,此次挑战赛分别从 PSNR 和主观评价两个方面去评估参赛团队的表现。


不久之前,CLIC 挑战赛比赛结果公布:在不同基准下,来自国内创业公司图鸭科技的团队 TucodecTNGcnn4p 在 MOS 和 MS-SSIMM 得分上获得第一名,腾讯音视频实验室和武汉大学陈震中教授联合团队 iipTiramisu 在 PSNR(Peak Signal-to-Noise Ratio,峰值信噪比)指标上占据领先优势,位列第一。xvc,评分较高的团队中,xvc 的解码速度最快。



比赛结果:http://www.compression.cc/results/


在这篇文章中,我们对第一名图鸭科技的解决方案进行了编译介绍,内容采自论文《Variational Autoencoder for Low Bit-rate Image Compression》。


论文:Variational Autoencoder for Low Bit-rate Image Compression 



地址:http://openaccess.thecvf.com/CVPR2018_workshops/CVPR2018_W50.py#


摘要:我们展示了一种用于低码率图像压缩的端到端可训练图像压缩框架。我们的方法基于变分自编码器,包含一个非线性编码器变换、均匀量化器、非线性解码器变换和后处理模块。压缩表征的先验概率通过使用超先验自编码器的拉普拉斯分布来建模,并与变换自编码器进行联合训练。为了去除低码率图像的压缩失真和模糊,我们提出了一种基于卷积的高效后处理模块。最终,考虑到 CLIC 挑战赛对码率的限制,我们使用一个码率控制算法来对每一个图像自适应性地分配码率。在验证集和测试集上的实验结果证明,使用感知损失训练出的该优化框架能够实现最优的 MS-SSIM 性能。结果还表明该后处理模块可以提高基于深度学习的方法和传统方法的压缩性能,在码率为 0.15 时最高 PSNR 达到 32.09。


1. 引言


近期,机器学习方法被应用于有损图像压缩,并利用自编码器取得了很有潜力的结果。基于典型神经网络的图像压缩框架由多个模块构成,例如自编码器、量化器(quantization)、先验分布模型、码率评估和率失真优化。自编码器用于将图像像素 x 转换为编码空间 y 中的数据,编码空间由编码器 和解码器 构成。图像的像素值通过编码器 转换到编码空间。之后,利用量化函数 处理表征 y,得到离散值向量。然后使用诸如算术编码 [8] 这样的熵编码方法来无损压缩,并生成用于传输的码流。在接收到码流之后,经过熵解码的量化后的表征使用解码器被转换回图像空间


很明显,表征的先验概率模型(也称为熵模型)对于算术编码很关键。的真实边际概率(依赖于图像分布)是未知的。因此我们通过先验分布对它进行估计。先验概率可以通过参数化模型形式化,并通过参数学习来拟合数据。给定熵模型,码率的下界由的离散先验分布的熵决定。由恰当设计的熵编码得到的真实率仅稍微大于熵:


率失真优化的作用是在编码长度 R 和原始图像 x、重构图像 之间的失真 D 进行权衡。D 可以用均方误差(MSE)建模:D= ,或感知失真的度量例如 MS-SSIM [13]。很明显,如果如果 更加集中,则熵 R 更小,但网络的表征能力将退化,并且 D 可能会增加。因此我们以端到端的方式优化率和失真的加权和 R+λD。我们可以断定先验模型和量化的联合优化在高效的压缩系统中是最重要的技术。一方面,对量化后的表征 的先验分布的准确估计有利于约束 和 R 的真实边际分布。另一方面,准确的先验模型可以使适应性算术编码在编码和解码过程中更加高效。


本论文提出的图像压缩框架基于之前的方法 。与这些方法不同,我们设计了一个金字塔自编码器和更高效的卷积结构,来提升压缩性能。此外,我们使用参数化零均值拉普拉斯分布对压缩表征的先验概率进行准确建模,该分布的参数通过超先验自编码器学习得到。考虑到如果该网络只通过保持低码率的像素相似度来学习,那么图像重建会遇到模糊的情况,对人眼的吸引力也会下降。因此我们使用一种基于 MS−SSIM 的高效损失函数来衡量感知损失,训练提高感知质量的压缩编码解码器。最后,我们使用基于卷积的后处理模块来提高图像重建质量。考虑到该挑战赛中对压缩测试图像和验证图像的限制是 0.15 bpp,因此我们设计码率控制算法来为每个图像选出最好的压缩参数。


2. 本论文提出的图像压缩框架


图 1:本论文使用的变分自编码器架构图示。卷积参数表示为:滤波器数量 × 卷积核高度 × 卷积核宽度/上(下)采样步幅,其中 ↓ 表示下采样,↑表示上采样。AE、AD 分别表示算术编码器和算术解码器。


图 2:超先验自编码器的架构展示。


图 3:(a)残差块。(b)两个卷积层和 6 个残差块组成了后处理架构。


3. 实验结果


表 1:在 CLIC 2018 验证集上的评估结果。


表 2:在 CLIC 2018 测试集上的评估结果。




本文为机器之心报道,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

登录查看更多
0

相关内容

自动编码器是一种人工神经网络,用于以无监督的方式学习有效的数据编码。自动编码器的目的是通过训练网络忽略信号“噪声”来学习一组数据的表示(编码),通常用于降维。与简化方面一起,学习了重构方面,在此,自动编码器尝试从简化编码中生成尽可能接近其原始输入的表示形式,从而得到其名称。基本模型存在几种变体,其目的是迫使学习的输入表示形式具有有用的属性。自动编码器可有效地解决许多应用问题,从面部识别到获取单词的语义。
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
深度学习之视频图像压缩
论智
13+阅读 · 2018年6月15日
概览CVPR 2018神经网络图像压缩领域进展
论智
13+阅读 · 2018年6月13日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
基于GAN的极限图像压缩框架
论智
11+阅读 · 2018年4月15日
Arxiv
7+阅读 · 2018年9月27日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
11+阅读 · 2018年4月8日
Arxiv
4+阅读 · 2018年3月14日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关资讯
深度学习之视频图像压缩
论智
13+阅读 · 2018年6月15日
概览CVPR 2018神经网络图像压缩领域进展
论智
13+阅读 · 2018年6月13日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
基于GAN的极限图像压缩框架
论智
11+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员