Deep neural networks (DNNs) are vulnerable to adversarial examples, in which DNNs are misled to false outputs due to inputs containing imperceptible perturbations. Adversarial training, a reliable and effective method of defense, may significantly reduce the vulnerability of neural networks and becomes the de facto standard for robust learning. While many recent works practice the data-centric philosophy, such as how to generate better adversarial examples or use generative models to produce additional training data, we look back to the models themselves and revisit the adversarial robustness from the perspective of deep feature distribution as an insightful complementarity. In this paper, we propose \textit{Branch Orthogonality adveRsarial Training} (BORT) to obtain state-of-the-art performance with solely the original dataset for adversarial training. To practice our design idea of integrating multiple orthogonal solution spaces, we leverage a simple multi-branch neural network and propose a corresponding loss function, branch-orthogonal loss, to make each solution space of the multi-branch model orthogonal. We evaluate our approach on CIFAR-10, CIFAR-100 and SVHN against $\ell_{\infty}$ norm-bounded perturbations of size $ε= 8/255$, respectively. Exhaustive experiments are conducted to show that our method goes beyond all state-of-the-art methods without any tricks. Compared to all methods that do not use additional data for training, our models achieve 67.3\% and 41.5\% robust accuracy on CIFAR-10 and CIFAR-100 (improving upon the state-of-the-art by +7.23\% and +9.07\%).


翻译:深度神经网络(DNNs)易受对抗性样本的攻击,即输入中微不可察的扰动会导致DNNs产生错误输出。对抗训练作为一种可靠且有效的防御方法,能显著降低神经网络的脆弱性,已成为鲁棒学习的事实标准。尽管近期许多研究遵循以数据为中心的理念,例如如何生成更优的对抗样本或利用生成模型产生额外训练数据,我们回归模型本身,从深度特征分布的视角重新审视对抗鲁棒性,作为一种具有洞察力的补充。本文提出《分支正交对抗训练》(BORT),仅使用原始数据集进行对抗训练即可获得最先进的性能。为实现整合多个正交解空间的设计理念,我们采用简单的多分支神经网络,并提出相应的损失函数——分支正交损失,以使多分支模型的每个解空间相互正交。我们在CIFAR-10、CIFAR-100和SVHN数据集上,针对$\ell_{\infty}$范数约束、扰动幅度为$ε= 8/255$的攻击分别评估了本方法。大量实验表明,我们的方法无需任何技巧即超越所有现有最优方法。与所有未使用额外训练数据的方法相比,我们的模型在CIFAR-10和CIFAR-100上分别实现了67.3%和41.5%的鲁棒准确率(较当前最优水平提升+7.23%和+9.07%)。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员