This paper introduces an end-to-end learned image compression system, termed ANFIC, based on Augmented Normalizing Flows (ANF). ANF is a new type of flow model, which stacks multiple variational autoencoders (VAE) for greater model expressiveness. The VAE-based image compression has gone mainstream, showing promising compression performance. Our work presents the first attempt to leverage VAE-based compression in a flow-based framework. ANFIC advances further compression efficiency by stacking and extending hierarchically multiple VAE's. The invertibility of ANF, together with our training strategies, enables ANFIC to support a wide range of quality levels without changing the encoding and decoding networks. Extensive experimental results show that in terms of PSNR-RGB, ANFIC performs comparably to or better than the state-of-the-art learned image compression. Moreover, it performs close to VVC intra coding, from low-rate compression up to nearly-lossless compression. In particular, ANFIC achieves the state-of-the-art performance, when extended with conditional convolution for variable rate compression with a single model.


翻译:本文介绍了一个端到端学习的图像压缩系统,称为ANICF, 其基础是增强的正常流动。 ANFF是一种新型流动模型,它堆叠了多种变异自动电解器(VAE),以获得更大的模型显示。 基于 VAE 的图像压缩已经纳入主流, 显示有希望的压缩性能。 我们的工作首次尝试在流动框架内利用VAE 的压缩。 ANICF通过堆叠和扩展等级上的多VAE, 进一步提高压缩效率。 ANF的可视性, 加上我们的培训战略, 使得ANFI能够在不改变编码和解码网络的情况下支持范围广泛的质量水平。 广泛的实验结果显示, PSNR- RGB, ANICC 在PSNR- RGB 方面, 其表现与最先进的、 最先进的、 最先进的图像压缩标准相比或更好。 此外, ANICFIC还表现接近VC 内部编码, 从低速压缩到几乎无损失的压缩。 特别是, ANIC 实现了最高级的状态性表现,, 当与单一的压压压缩率的公式扩展时, 。

0
下载
关闭预览

相关内容

专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
44+阅读 · 2020年10月31日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年4月19日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月21日
Arxiv
3+阅读 · 2020年7月16日
Arxiv
4+阅读 · 2019年11月21日
Arxiv
3+阅读 · 2018年3月14日
Arxiv
3+阅读 · 2017年7月6日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
已删除
将门创投
3+阅读 · 2019年4月19日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员