美剧《硅谷》Pied Piper变为现实:图鸭发布图片压缩TNG,节省55%带宽

2018 年 3 月 5 日 AI前线 图片压缩
作者 | 图鸭科技
编辑 | Vincent
AI 前线导读:近年来,深度学习在计算机视觉领域已经占据主导地位,不论是在图像识别还是超分辨重现上,深度学习已成为图片研究的重要技术;现在深度学习技术已进入图片压缩领域。以图鸭科技最新研发的图片压缩——Tiny Network Graphics (TNG) 为例,其以深度学习卷积神经网络为内核,在保持相同图片质量的情况下,其图片大小仅为 JPEG 的 45%。

本文将和大家分享如何使用深度学习卷积神经网络技术设计图像压缩算法。

更多干货内容请关注微信公众号“AI 前线”(ID:ai-front)

说到图像压缩算法,目前市面上影响力比较大的图片压缩技术是 WebP 和 BPG。

WebP:谷歌在 2010 年推出的一款可以同时提供有损压缩和无损压缩的图片文件格式,其以 VP8 为编码内核,在 2011 年 11 月开始可以支持无损和透明色功能。目前 facebook、Ebay 等网站都已采用此图片格式。

BPG:知名程序员、ffmpeg 和 QEMU 等项目作者 Fabrice Bellard 推出的图像格式,它以 HEVC 为编码内核,在相同体积下,BPG 文件大小只有 JPEG 的一半。另外 BPG 还支持 8 位和 16 位通道等等。尽管 BPG 有很好的压缩效果,但是 HEVC 的专利费很高,所以目前的市场使用比较少。

就压缩效果来说,BPG 更优于 WebP,但是 BPG 采用的 HEVC 内核所带来的专利费,导致其无法在市场进行大范围使用。在这种情况下,运用深度学习来设计图片压缩算法就应运而生。

如何用深度学习技术设计图片压缩算法

通过深度学习技术设计压缩算法的目的之一是设计一个比目前商用图片压缩更优的压缩算法,同时借助于深度学习技术还可以设计更简洁的端到端算法。在图片、视频压缩领域,主要用到的深度学习技术是卷积神经网络 (CNN)。如图 1 所显示,像搭积木一样,一个卷积神经网络由卷积、池化、非线性函数、归一化层等模块组成。最终的输出根据应用而定,如在人脸识别领域,我们可以用它来提取一串数字(专业术语称为特征)来表示一幅人脸图片,然后通过比较特征的异同进行人脸识别。

图 1 卷积神经网络示意图

用深度学习设计的图片压缩完整框架包括 CNN 编码器、量化、反量化、CNN 解码器、熵编码、码字估计、码率 - 失真优化等几个模块。编码器的作用是将图片转换为压缩特征,解码器就是从压缩特征恢复出原始图片。其中编码器和解码器,可以用卷积、池化、非线性等模块进行设计和搭建。

(图 2 用深度学习进行图片压缩示意图)

如何评判压缩算法

在深入技术细节前,我们先来了解一下如何评判压缩算法。评判一个压缩算法好坏的重要指标有三个:PSNR(Peak Signal to Noise Ratio)、BPP(bit per pixel)和 MS-SSIM(multi-scaleSSIM index)。我们知道,任何数据在计算机内都是以比特形式存储,所需比特数越多则占据的存储空间越大。PSNR 用来评估解码后图像恢复质量,BPP 用于表示图像中每个像素所占据的比特数,MS-SSIM 值用来衡量图片的主观质量,简单来说在同等的 Rate/BPP 下 PSNR 更高,恢复质量越好,MS-SSIM 更高,主观感受越好。

举个例子,假设长宽为 768×512 的图片大小为 1M,利用深度学习技术对它编码,通过编码网络后产生包括 96×64×192 个数据单元的压缩特征数据,如果表示每个数据单元平均需要消耗 1 个比特,则编码整张图需要 96×64×192 个比特。经过压缩后,编码每个像素需要的比特数为(96×64×192)/(768×512)=3,所以 BPP 值为 3bit/pixel,压缩比为 24:3=8:1。这意味着一张 1M 的图,通过压缩后只需要消耗 0.125M 的空间,换句话说,之前只能放 1 张照片的空间,现在可以放 8 张。

如何用深度学习做压缩

谈到如何用深度学习做压缩,还是用刚才那个例子。将一张大小 768×512 的三通道图片送入编码网络,进行前向处理后,会得到占据 96×64×192 个数据单元的压缩特征。有计算机基础的读者可能会想到,这个数据单元中可放一个浮点数、整形数、或者是二进制数。那到底应该放入什么类型的数据?从图像恢复角度和神经网络原理来讲,如果压缩特征数据都是浮点数,恢复图像质量是最高的。但一个浮点数占据 32 个比特位,按之前讲的比特数计算公式为(96×64×192×32)/(768×512)=96,压缩后反而每个像素占据比特从 24 变到 96,非但没有压缩,反而增加了,这是一个糟糕的结果,很显然浮点数不是好的选择。

所以为了设计靠谱的算法,我们使用一种称为量化的技术,它的目的是将浮点数转换为整数或二进制数,最简单的操作是去掉浮点数后面的小数,浮点数变成整数后只占据 8 比特,则表示每个像素要占据 24 个比特位。与之对应,在解码端,可以使用反量化技术将变换后的特征数据恢复成浮点数,如给整数加上一个随机小数,这样可以一定程度上降低量化对神经网络精度的影响,从而提高恢复图像的质量。

即使压缩特征中每个数据占据 1 个比特位,可是 8:1 的压缩比在我们看来并不是一个很理想的结果。那如何进一步优化算法?再看下 BPP 的计算公式。假设每个压缩特征数据单元占据 1 个比特,则公式可写成:(96×64×192×1)/(768×512)=3,计算结果是 3 bit/pixel,从压缩的目的来看,BPP 越小越好。在这个公式中,分母由图像决定,可以调整的部分在分子,分子中 96、64、192 这三个数字与网络结构相关。很显然,当我们设计出更优的网络结构,这三个数字就会变小。

那 1 与哪些模块相关?1 表示每个压缩特征数据单元平均占据 1 个比特位,量化会影响这个数字,但它不是唯一的影响因素,它还与码率控制和熵编码有关。码率控制的目的是在保证图像恢复质量的前提下,让压缩特征数据单元中的数据分布尽可能集中、出现数值范围尽可能小,这样我们就可以通过熵编码技术来进一步降低 1 这个数值,图像压缩率会进一步提升。

用深度学习做视频压缩,可以看作是在深度学习图片压缩基础上的扩展,可结合视频序列帧间的光流等时空信息,在单张压缩的基础上,进一步降低码率。

深度学习图片压缩的优势

图鸭科技通过深度学习技术研发的图片压缩 TNG 在内部的测试上已经超过 webp 与 BPG,下图是在 kodak24 标准数据集上测评结果, 分别是 PSNR 值与 MS-SSIM 值。

图 3 图 4 在 kodak24 标准数据集上测评结果,上图为 PSNR 结果,下图为 MS-SSIM 的结果

熟悉图像压缩的朋友可以直接通过 PSNR 和 MS-SSIM 值看出:TNG 的 PSNR 值与 MS-SSIM 值明显高于 WebP、jpeg2000 和 jpeg;且 TNG 在高码字的情况下 PSNR 值高于 BPG,且其 MS-SSIM 值基本一致高于 BPG。


  • 在低码字情况下 TNG 与 WebP 压缩效果对比

图 5 图 6 低码字情况下 TNG 与 WebP 压缩效果对比 图 5 TNG,图 6 webp

相比 TNG,WebP 尽管保留了更多的细节,但是其失真更多,不利于后期恢复。而 TNG 采用了保边滤波的方法,让其失真更少,整体图像效果优于 WebP。


  • 在高码字情况下 TNG 与 BPG 对比

图 7 图 8 高码字情况下 TNG 与 BPG 压缩效果对比,图 7 TNG 图 8 BPG

上面两幅图是高码字的情况,在实际的测试中,BPG 会出现上图所示的颜色失真情况;而反观 TNG 其基本不会出现这类的失真状况。

这是因为 BPG 在编码压缩时尽管图片时,其 YUV 通道是分开进行编解码,产生了一些色差。

而 TNG 在编码时考虑到了整体图片的情况,采用了同一编码,也就避免了上述的情况。


  • 在低码字的情况下 TNG 与 BPG 的对比

图 9 图 10 低码字情况下 TNG 与 BPG 压缩效果对比,图 9 TNG 图 10 BPG

在低码字的情况下,BPG 压缩图片中出现了伪轮廓和块效应等问题,整个图片的连续性比较差;而 TNG 的图片连续性和物体的轮廓保持的更好。

图片压缩的使用领域可以说的极其广泛了,从社交应用、新闻客户端到游戏等领域,可以说有图片的地方就有图片压缩功能。使用更先进的图片压缩技术,可以帮助大量使用图片的企业节省大量图片带宽成本,且能帮助用户节省图片流量,减少加载图片所需时间。

总结

总体而言,借助于深度学习设计图像压缩算法是一项非常具有前景但也非常具有挑战性的技术。深度学习技术图片压缩可以使大家在全面高清屏的时代有更优质的视觉体验,同时在游戏、空间图像传感等领域,深度学习图片压缩技术可以帮助图片达到更高分辨率,更小存储空间,从而为用户提供更好的视觉体验。

这里附上 TNG 的测试链接:

http://www.tucodec.com/picture/index

大家可以自行进行测试(建议在 PC 端进行测试),测试完成后可以下载压缩后图片和二进制文件,下载安装解码器后也可以对已经压缩的图片进行恢复处理。


如果您觉得内容优质,记得给我们「留言」和「点赞」,给编辑鼓励一下!

登录查看更多
6

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
80+阅读 · 2020年6月20日
【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
微信小程序支持webP的WebAssembly方案
前端之巅
19+阅读 · 2019年8月14日
换脸算什么?现在AI都能一键“脱衣”了
腾讯科技
10+阅读 · 2019年6月30日
已删除
将门创投
7+阅读 · 2018年8月28日
深度学习之视频图像压缩
论智
13+阅读 · 2018年6月15日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
一场深度学习引发的图像压缩革命
极市平台
8+阅读 · 2018年3月30日
宅男福音deepfakes开源了
AI前线
9+阅读 · 2018年1月31日
Arxiv
15+阅读 · 2019年4月4日
SepNE: Bringing Separability to Network Embedding
Arxiv
3+阅读 · 2019年2月26日
dynnode2vec: Scalable Dynamic Network Embedding
Arxiv
14+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
4+阅读 · 2015年8月25日
VIP会员
相关资讯
微信小程序支持webP的WebAssembly方案
前端之巅
19+阅读 · 2019年8月14日
换脸算什么?现在AI都能一键“脱衣”了
腾讯科技
10+阅读 · 2019年6月30日
已删除
将门创投
7+阅读 · 2018年8月28日
深度学习之视频图像压缩
论智
13+阅读 · 2018年6月15日
一文读懂图像压缩算法
七月在线实验室
16+阅读 · 2018年5月2日
如何设计基于深度学习的图像压缩算法
论智
41+阅读 · 2018年4月26日
一场深度学习引发的图像压缩革命
极市平台
8+阅读 · 2018年3月30日
宅男福音deepfakes开源了
AI前线
9+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员