Currently, Deep Neural Networks (DNNs) have made major breakthroughs in many fields, and are widely taken to automatically analyze and classify multimedia data. However, DNNs can also be used for certain malicious detection, especially for pictures from various social platforms, posing a serious threat to user privacy. The attack characteristics of adversarial examples can fool such artificial intelligence systems to achieve privacy protection and other purposes. The reversible adversarial example achieves the reversible cyber attacks on the artificial intelligence system, which not only disable the system's automatic classification and analysis functions, but also restores the original image error-free. Nevertheless, in the existing work of reversible adversarial examples, there are problems such as the difficulty of fully embedding the adversarial-perturbations information, resulting in the failure of the original image restoration, and the inability of the attack effect caused by the perturbation constraint to meet the privacy protection requirements. In this paper, we take advantage of Reversible Image Transformation (RIT) to realize direct conversion between the original image and its reversible adversarial example. Experimental results show that proposed scheme can not only successfully restore the original image without distortion, but also is not limited by the perturbation amplitude, can bring a higher attack success rate to reach desired privacy protection goal, while ensuring that the image distortion is imperceptible to the human eyes.


翻译:目前,深神经网络(DNN)在许多领域取得了重大突破,并被广泛认为自动分析和分类多媒体数据。然而,DNN也可以用于某些恶意检测,特别是各种社会平台的图片,对用户隐私构成严重威胁。对抗性实例的攻击性特征可以愚弄这些人工智能系统,实现隐私保护和其他目的。可逆对抗性实例可以实现对人工智能系统的可逆网络攻击,这不仅使系统自动分类和分析功能无法运行,而且恢复了原始图像的无误。然而,在现有的可逆对抗性实例中,DNNN也可以用于某些恶意检测,特别是各种社会平台的图片,对用户隐私构成严重威胁。对抗性实例的攻击性特征可以愚弄这些人工智能系统,从而达到隐私保护要求。在本文件中,我们利用可逆性图像转换(RIT)实现原始图像与其可逆性对立示例之间的直接转换。实验结果表明,在完全嵌入对抗性对立性干扰性信息,导致原始图像恢复失败,同时使预期的图像恢复率达到更高的目标,同时使原始图像成功恢复速度。我们利用可逆性图像转换,只能成功地恢复原始图像保护。

0
下载
关闭预览

相关内容

近期必读的七篇 ICLR 2021【因果推理】相关投稿论文
专知会员服务
68+阅读 · 2020年10月6日
Python图像处理,366页pdf,Image Operators Image Processing in Python
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Yoshua Bengio,使算法知道“为什么”
专知会员服务
7+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Adversarial Metric Attack for Person Re-identification
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
Arxiv
4+阅读 · 2018年9月25日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
【计算机类】期刊专刊/国际会议截稿信息6条
Call4Papers
3+阅读 · 2017年10月13日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员