CNN对抗补丁之谜

2018 年 1 月 20 日 AI前线 周末充电

作者|Sachin Joglekar
译者|王纯超
编辑|Emily
AI 前线导读:虽然过去几周的许多文章都谈到了最近的对抗补丁(adversarial patch),但还没有人解释它们是如何工作的。本文也不例外。

更多干货内容请关注微信公众号“AI 前线”,(ID:ai-front)

首先说一下基本概念。

对抗攻击基本上指提供一个欺骗性的输入给 ML 模型,误导它产生错误的结果。这个结果可能是不正确的,或者是攻击者想要获得的某个目标分类。

这篇 Ycombinator 博文很好地解释了神经网路对抗攻击。文章太长,简单来说就是:


  • 输入:图像 I、目标分类 C 和神经网络 N

  • 输出:误导 N 预测 C 的修改后的图像 I'

  • 过程:首先随机取一个噪声滤波器 X。结合 I 和 X,输入到 N。使用快速梯度逐步方法(梯度下降的一种形式)来修改 X,以达到两个目标:



  1.   对于 I+X,N 的预测结果为 C

  2.   X 尽可能小

这种简单方法的效果令人惊讶,而且噪声(X)可能很难检测到:

但是,这种方法要求为每张想要误导神经网络的图像执行渐变下降。从本质上说,你无法使用这种方法在运行过程中攻击模型。这就需要使用对抗补丁了。


  • 输入:目标分类 C 和神经网络 N(注意,这里没有输入图像)

  • 输出:补丁 P,将它以任何方式应用到任何图片,N 的预测都为 C

  • 过程

  1. 首先随机选取一个任意形状的补丁 P(作者使用了圆形的补丁)

  2. 定义一个应用补丁的算子,如下所示:

    本质上讲,这个算子将补丁以指定的缩放比例和方向叠加到一个图像上指定的位置。

  3.  在训练过程中,随机取一张图像,在其上应用 P(每次使用不同的位置、方向和缩放比例),并反向传播相对于 C 的误差。这个过程重复很多次。

  4. 由于唯一可训练的方面是 P,并且每次将它与不同的图像(以不同的方式)结合在一起,所以学习算法要修改 P 以使 N 在各种情况下预测都为 C。

这个方法相当有效(请观看 https://youtu.be/i1sp4X57TL4)。

它为何与众不同呢?

它给对抗攻击一个全新的维度。例如,假设你要欺骗一个用来监控抢劫的人脸检测相机。你可以随身携带一个对抗补丁,从根本上让相机误以为看到一棵正在移动的树!

当然,要达到这个目的,你还需要访问预测神经网络。这篇论文决不是完全否定卷积神经网络对于图像分类系统的意义。但是,这项工作无疑是探索自动化系统的薄弱环节和安全隐患的正确方向。

查看英文原文:

https://codeburst.io/adversarial-patches-for-cnns-explained-d2838e58293

登录查看更多
1

相关内容

【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
【中科院自动化所】视觉对抗样本生成技术概述
专知会员服务
35+阅读 · 2020年4月15日
【浙江大学】对抗样本生成技术综述
专知会员服务
91+阅读 · 2020年1月6日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
一文读懂文本处理中的对抗训练
PaperWeekly
22+阅读 · 2019年6月5日
【学界】带了个对抗图像块,YOLOv2竟然无法识别我是人……
GAN生成式对抗网络
4+阅读 · 2019年4月24日
L2正则化视角下的对抗样本
极市平台
7+阅读 · 2018年7月13日
揭秘|多伦多大学反人脸识别,身份欺骗成功率达99.5%
机器人大讲堂
6+阅读 · 2018年6月9日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
【深度】脆弱的神经网络:UC Berkeley详解对抗样本生成机制
GAN生成式对抗网络
5+阅读 · 2018年2月11日
【文章】深度神经网络中的对抗样本与学习7篇文章
GAN生成式对抗网络
6+阅读 · 2017年9月8日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
10+阅读 · 2018年2月17日
Arxiv
6+阅读 · 2018年2月6日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员