This paper presents Poisoning MorphNet, the first backdoor attack method on point clouds. Conventional adversarial attack takes place in the inference stage, often fooling a model by perturbing samples. In contrast, backdoor attack aims to implant triggers into a model during the training stage, such that the victim model acts normally on the clean data unless a trigger is present in a sample. This work follows a typical setting of clean-label backdoor attack, where a few poisoned samples (with their content tampered yet labels unchanged) are injected into the training set. The unique contributions of MorphNet are two-fold. First, it is key to ensure the implanted triggers both visually imperceptible to humans and lead to high attack success rate on the point clouds. To this end, MorphNet jointly optimizes two objectives for sample-adaptive poisoning: a reconstruction loss that preserves the visual similarity between benign / poisoned point clouds, and a classification loss that enforces a modern recognition model of point clouds tends to mis-classify the poisoned sample to a pre-specified target category. This implicitly conducts spectral separation over point clouds, hiding sample-adaptive triggers in fine-grained high-frequency details. Secondly, existing backdoor attack methods are mainly designed for image data, easily defended by some point cloud specific operations (such as denoising). We propose a third loss in MorphNet for suppressing isolated points, leading to improved resistance to denoising-based defense. Comprehensive evaluations are conducted on ModelNet40 and ShapeNetcorev2. Our proposed Poisoning MorphNet outstrips all previous methods with clear margins.


翻译:本文展示了点云的第一种后门攻击方法 -- -- 毒死墨菲Net, 这是点云的第一种后门攻击方法。 常规对抗性攻击发生在推论阶段, 往往通过扰动样本来愚弄模型。 相比之下, 后门攻击的目的是在培训阶段将触发器植入模型, 这样受害者模型通常在清洁数据上发挥作用, 除非在样本中出现触发器。 这项工作遵循一个典型的清洁标签后门攻击设置, 将一些中毒样本( 其内容被篡改, 但其标签未变 ) 注入到训练组。 MorphNet的独特贡献是双重的。 首先, 关键是要确保植入的网络触发在视觉上对人的不易感知性, 并在点云中导致高攻击率。 MorphNet 联合优化了两个样本适应性中毒的目标: 重建损失, 保持良性/ 毒点云之间的视觉相似性; 分类损失, 将点云的现代识别模型分为一个精确的目标评估类别。 这在点上进行隐含的光谱分谱分分分解, 主要在点的云层上进行, 隐藏了一种高点的摩地分析, 隐藏了前的摩地点, 隐藏的摩地点图像分析。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
39+阅读 · 2020年9月6日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Model-Centric Volumetric Point Cloud Attributes
Arxiv
0+阅读 · 2021年6月29日
Data Poisoning Won't Save You From Facial Recognition
Arxiv
14+阅读 · 2020年10月26日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Review: deep learning on 3D point clouds
Arxiv
5+阅读 · 2020年1月17日
Deep Learning for 3D Point Clouds: A Survey
Arxiv
3+阅读 · 2019年12月27日
VIP会员
相关资讯
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Model-Centric Volumetric Point Cloud Attributes
Arxiv
0+阅读 · 2021年6月29日
Data Poisoning Won't Save You From Facial Recognition
Arxiv
14+阅读 · 2020年10月26日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Review: deep learning on 3D point clouds
Arxiv
5+阅读 · 2020年1月17日
Deep Learning for 3D Point Clouds: A Survey
Arxiv
3+阅读 · 2019年12月27日
Top
微信扫码咨询专知VIP会员