首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022

2021 年 12 月 21 日 机器之心
机器之心专栏
复旦大学姜育刚团队
旦大学开展针对视频模型中对抗样本迁移性的研究,以促进视频模型的安全发展。

近年来,深度学习在一系列任务中(例如:图像识别、目标识别、语义分割、视频识别等)取得了巨大成功。因此,基于深度学习的智能模型正逐渐广泛地应用于安防监控、无人驾驶等行业中。但最近的研究表明,深度学习本身非常脆弱,容易受到来自对抗样本的攻击。对抗样本指的是由在干净样本上增加对抗扰动而生成可以使模型发生错误分类的样本。对抗样本的存在为深度学习的应用发展带来严重威胁,尤其是最近发现的对抗样本在不同模型间的可迁移性,使得针对智能模型的黑盒攻击成为可能。具体地,攻击者利用可完全访问的模型(又称白盒模型)生成对抗样本,来攻击可能部署于线上的只能获取模型输出结果的模型(又称黑盒模型)。此外,目前的相关研究主要集中在图像模型中,而对于视频模型的研究较少。因此,亟需开展针对视频模型中对抗样本迁移性的研究,以促进视频模型的安全发展。

时序平移攻击方法

与图片数据相比,视频数据具有额外的时序信息,该类信息能够描述视频中的动态变化。目前已有多种不同的模型结构(例如:Non-local,SlowFast,TPN)被提出,以捕获丰富的时序信息。然而多样化的模型结构可能会导致不同模型对于同一视频输入的高响应区域不同,也会导致在攻击过程中所生成的对抗样本针对白盒模型产生过拟合而难以迁移攻击其他模型。为了进一步剖析上述观点,来自复旦大学姜育刚团队的研究人员首先针对多个常用视频识别模型(video recognition model)的时序判别模式间的相似性展开研究,发现不同结构的视频识别模型往往具有不同的时序判别模式。基于此,研究人员提出了基于时序平移的高迁移性视频对抗样本生成方法。


  • 论文链接:https://arxiv.org/pdf/2110.09075.pdf

  • 代码链接:https://github.com/zhipeng-wei/TT


视频模型的时序判别模式分析

在图像模型中,常常利用 CAM(Class activation mapping)来可视化模型对于某张图片的判别区域。然而在视频模型的判别模式由于额外的时序维度而难以可视化,且难以在不同模型间进行比较。为此,研究人员定义视频帧的重要性排序作为视频模型的时序判别模式。如果两个模型共享相似的时序判别模式,那么视频帧重要性的分布会更加相似。

视频帧的重要性计算

研究人员使用了三种途径衡量视频帧对于模型决策的重要性:Grad-CAM,Zero-padding 和 Mean-padding。Grad-CAM 在由 CAM 计算得到的 attention map 中针对每一帧进行均值计算,该均值则为视频各帧的重要性度量。而 Zero-padding 使用 0 来替换第i视频帧中的所有像素值,并计算替换前后的损失值的变化程度。变化程度越高说明第 i 视频帧越重要。类似地,Mean-padding 使用临近帧的均值替换第i视频帧。通过以上三种方式,可计算得到在不同模型下视频帧的重要性程度,并以此作为模型的时序判别模式。

时序判别模式相似度计算

由上述方法计算视频数据x在模型A上的视频帧重要性得分为 ,其中T表示输入视频帧的数目。 那么针对模型A和模型B,可得到 ,结合 Spearman’s Rank Correlation,可计算模型间时序判别模式的相似性 ,即


其中, 执行基于重要性值的排序操作并返回视频各帧的排序值。 的值在-1和1之间,当其等于0时表示模型A和模型B间的判别模式不存在关系,而-1或者1则表示明确的单调关系。 的值越大则模型间的判别模式越相似。 基于此,可实现不同视频模型时序判别模式间关系的度量。

不同视频模型间判别模式的相似程度

上图为 6 个视频模型间的判别模式关系热图。在不同模型设计架构下,Non-Local、SlowFast 和 TPN 间的时序判别模式相似程度较低;而在相同设计架构下,分别使用 3D Resnet-50 和 3D Resnet-101 作为 backbone 的视频模型具有更加相似的时序判别模式。以上趋势在三种视频帧重要性计算方法中都得到了验证。由此,可在实验上证明该论文的假设,即不同视频模型结构会导致不同的时序判别模式。

时序平移攻击方法

基于以上观察,研究人员提出了基于时序平移的迁移攻击方法。通过沿着时序维度移动视频帧,来降低所生成对抗样本与白盒模型特定判别模型之间的拟合程度,提高对抗样本在黑盒模型上的攻击成功率。

使用 表示输入视频, 表示其对应真实标签,其中T,H,W,C分别表示帧数,高度,宽度和通道数,K表示类别数目。 使用 表示视频模型对于视频输入的预测结果。 定义 为对抗噪声,那么攻击目标可以定义为 ,其中 ,且限制 定义 为损失函数。 则非目标攻击的目标函数可定义为:


为了降低攻击过程中对于白盒模型的过拟合现象,研究人员对时序移动后视频输入的梯度信息进行聚合:


其中L表示最大平移长度,且 函数 表示将所有的视频输入沿着时序维度平移i帧。 当平移后的位置大于T时,设当前帧为第i帧,即t+i>T,则第t帧的位置变为第t+i-T帧,否则为第t+i帧。 而在时序平移后的视频输入上计算完梯度后,仍会沿着时序维度平移回原始视频帧序列,并通过w_i来整合来自不同平移长度的梯度信息。w_i 可利用均一、线性、高斯三种方式生成(参考 Translation-invariant 攻击方法)。

攻击算法整体流程如下,其中 用来限制生成的对抗噪声满足


结果讨论与分析

为了探究时序平移攻击方法的性能,研究人员在 UCF-101 和 Kinetics-400 两个数据集,Non-local,SlowFast,TPN 三种不同结构的视频模型中进行对比实验,其中视频模型分别使用 3D Resnet-50 和 3D Resnet-101 作为 backbone。当使用某一种结构的视频模型作为白盒模型时,计算所生成对抗样本在其他结构的视频模型上的攻击成功率(Attack success rate,ASR),以此作为评价指标。

研究人员分别在单步攻击和迭代攻击方法下进行了实验对比。可以看出时序平移攻击方法在单步攻击和迭代攻击下都能取得更高的 ASR,表明所生成的对抗样本具有高迁移性。此外,在视频模型上,单步攻击的效果好于迭代攻击。这说明,在图像模型中发展出的迁移攻击方法不适用于更复杂的视频模型。最后,当使用 TPN 模型作为白盒模型时,时序平移攻击方法的性能提升较为有限,研究人员通过分析后认为 TPN 模型对于时序移动更加不敏感。

视频识别模型上的 ASR 对比图

下表展示了与 Translation-invariant(TI)攻击方法、Attention-guided(ATA)攻击方法和 Momentum iterative(MI)攻击方法相结合后的性能比较。可以看出,时序平移方法可以辅助这些方法发挥更好的性能,起到补充的作用。

结合现有方法的平均 ASR 结果对比

此外,研究人员还针对不同的平移长度L、权重w_i生成策略及平移策略进行了消融实验。

平移长度L决定了有多少个平移后的视频输入被用来进行特征聚合。当L=0时,时序平移方法将会退化为最基本的迭代攻击方法。因此,针对平移长度的研究是十分有必要的。下图展示了不同平移长度下时序平移攻击方法在不同黑盒模型下的 ASR 变化情况。可以看到,Non-local Resnet-50 模型的曲线更加稳定,而其他黑盒模型的曲线呈现先上升再趋于稳定的特点。这是因为 Non-local Resnet-50 与 Non-local Resnet-101 共享相似的模型结构。为了平衡 ASR 和计算复杂度,研究人员最终选取L=7来进行实验。

不同平移长度下的时序平移攻击方法性能对比

下表展示的是对于权重生成策略和平移策略的消融实验结果。从表中可以看出,当赋予具有更大时序平移长度的视频输入以更小的权重时,时序平移攻击方法能取得较好的结果。此外,当平移策略变为随机帧交换或远距离交换时,时序平移攻击方法会取得较差的结果。

不同权重生成策略和平移策略下时序平移攻击方法的性能对比


苏黎世联邦理工DS3Lab:构建以数据为中心的机器学习系统


苏黎世联邦理工学院(ETH Zurich) DS3Lab实验室由助理教授张策以及16名博士生和博士后组成,主要致力于两大研究方向,Ease.ML项目:研究如何设计、管理、加速以数据为中心的机器学习开发、运行和运维流程,ZipML项目:面向新的软硬件环境设计实现高效可扩展的机器学习系统。

12月15日-12月22日 ,来自苏黎世联邦理工学院DS3Lab实验室的11位嘉宾将带来6期分享:构建以数据为中心的机器学习系统,详情如下:


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
TPAMI 2021|VideoDG:首个视频领域泛化模型
专知会员服务
20+阅读 · 2021年12月31日
深度对抗视觉生成综述
专知会员服务
32+阅读 · 2021年12月29日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
人工智能模型数据泄露的攻击与防御研究综述
专知会员服务
71+阅读 · 2021年3月31日
专知会员服务
25+阅读 · 2021年1月21日
专知会员服务
50+阅读 · 2021年1月19日
专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
60+阅读 · 2020年3月19日
AAAI 2022 | 全身涂装式对抗纹理迷彩生成框架FCA
PaperWeekly
1+阅读 · 2022年4月2日
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知
3+阅读 · 2022年3月29日
AAAI 2022 | 基于强化学习的视频弹幕攻击
PaperWeekly
1+阅读 · 2022年1月11日
TPAMI 2021|VideoDG:首个视频领域泛化模型
专知
0+阅读 · 2021年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
17+阅读 · 2021年3月29日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Exploring Visual Relationship for Image Captioning
Arxiv
15+阅读 · 2018年9月19日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
TPAMI 2021|VideoDG:首个视频领域泛化模型
专知会员服务
20+阅读 · 2021年12月31日
深度对抗视觉生成综述
专知会员服务
32+阅读 · 2021年12月29日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
人工智能模型数据泄露的攻击与防御研究综述
专知会员服务
71+阅读 · 2021年3月31日
专知会员服务
25+阅读 · 2021年1月21日
专知会员服务
50+阅读 · 2021年1月19日
专知会员服务
45+阅读 · 2020年10月5日
专知会员服务
60+阅读 · 2020年3月19日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
17+阅读 · 2021年3月29日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Exploring Visual Relationship for Image Captioning
Arxiv
15+阅读 · 2018年9月19日
Arxiv
26+阅读 · 2018年2月27日
Top
微信扫码咨询专知VIP会员