Most existing lossless data hiding (LDH) methods for JPEG bitstream embed data by constructing the code mapping between used codes and unused codes. However, previous studies only apply to the JPEG bitstream encoded with the standard Huffman table. For the JPEG bitstream encoded with the optimized Huffman table, all the codes are used, so the traditional code mapping strategy does not work. With this concern in mind, we propose a generic LDH method that is applicable to any JPEG bitstream by using a table-independent code mapping strategy, in which the mapped codes are redefined by customizing a Huffman table rather than selected from the unused codes in the original bitstream. Furthermore, we formulate the code mapping construction as a combinatorial optimization problem. The optimization problem can be solved by using some optimization algorithms. For example, in this paper, we use the genetic algorithm to search for the nearly optimal solution. Consequently, the high embedding capacity can be achieved, and the file-size increment in the marked bitstream is also well alleviated. Finally, we embed additional data and modify the file header to guarantee that the marked bitstream is compatible with popular JPEG decoders. Experimental results demonstrate that the proposed method significantly outperforms state-of-the-art methods.


翻译:JPEG Bitstream 的多数现有无损数据隐藏方法(LDH), 用于 JPEG Bitstream, 用于构建使用过的代码和未使用的代码之间的代码映射。 但是, 先前的研究只适用于与标准 Huffman 表格编码的 JPEG Bitstref 。 对于使用优化的 Huffman 表格编码的 JPEG Bitstream, 所有代码都被使用, 因此传统代码映射战略无法发挥作用 。 基于这一关切, 我们建议了一种通用 LDH 方法, 适用于任何 JPEG 位流, 其方法是使用一个表格独立的代码映射战略, 通过定制一个 Huffman 表格, 而不是在原始的位流中从未使用的代码中选择重新定义所绘制的代码。 此外, 我们将代码映射结构图的构造作为组合优化优化的问题。 优化的问题可以通过一些优化算法来解决 。 例如, 我们使用基因算算法来搜索近乎最佳的解决方案的解决方案。 因此, 能够实现高的嵌入能力, 并且标记的位流中的文件大小递增也得到了缓解。 最后, 我们插入了额外的数据并修改了文件首页头 以保证 演示式演示式的演示方法与流行的演示。

0
下载
关闭预览

相关内容

【干货书】开放数据结构,Open Data Structures,337页pdf
专知会员服务
16+阅读 · 2021年9月17日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
专知会员服务
59+阅读 · 2020年3月19日
【NeurIPS 2019的主要趋势】Key trends from NeurIPS 2019
专知会员服务
11+阅读 · 2019年12月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年11月12日
Arxiv
8+阅读 · 2021年9月30日
Arxiv
3+阅读 · 2020年7月16日
On Feature Normalization and Data Augmentation
Arxiv
14+阅读 · 2020年2月25日
HAQ: Hardware-Aware Automated Quantization
Arxiv
6+阅读 · 2018年11月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员