为了在关键安全领域如医疗或自动驾驶中应用神经网络,我们需要能够分析它们对抗对抗性攻击的鲁棒性。这些攻击通过添加小的、精心选择的扰动来扰乱自然图像,这些扰动对人眼来说几乎是察觉不到的。训练有素的神经网络尽管在训练和验证准确度很高,但经常会错误分类许多这些受扰动的图像。在本论文中,我们提出了几种新方法,旨在分析训练有素的神经网络对抗对抗性攻击的鲁棒性。

在第一部分中,我们改进了现有方法以更高效地生成对抗性样本。我们注意到,过去在这一领域的工作依赖于忽略问题和数据固有结构的优化方法,或完全依赖于学习且经常无法生成难以找到的对抗性样本的生成方法。为了缓解这些不足,我们提出了一种基于图神经网络(GNN)的新型独立攻击,它利用了这两种方法的优点。我们的GNN计算下降方向以指导迭代程序生成对抗性样本。

我们的下一个贡献灵感来源于观察到许多最先进的对抗性攻击需要多次随机重启才能生成对抗性样本。每次执行重启时,我们都忽略了之前所有不成功的尝试。为了缓解这一不足,我们提出了一种从错误中学习的方法。具体来说,我们的方法使用GNN作为注意力机制,大大减少了未来攻击迭代的搜索空间。 对于我们的最后一个贡献,我们注意到即使存在对抗性样本,对抗性攻击也可能失败。因此,我们关注形式化的完整神经网络验证,它返回一个声音完整的鲁棒性证明。近年来,分支定界(BaB)框架已经被用于深度学习的形式验证。BaB的主要计算瓶颈是下界的估计。以往在这一领域的工作依赖于传统的优化算法,其效率不足已限制了它们的应用范围。为了缓解这一不足,我们提出了一种基于图神经网络的新方法。我们的GNN旨在计算凸松弛的对偶解决方案,从而提供一个有效的下界,如果为正,则证明了鲁棒性。

成为VIP会员查看完整内容
26

相关内容

牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。

【斯坦福博士论文】多维神经影像分析,194页pdf
专知会员服务
21+阅读 · 6月21日
【剑桥大学博士论文】机器学习中的分布外泛化,214页pdf
【普林斯顿博士论文】神经符号机器学习推理,133页pdf
专知会员服务
47+阅读 · 2023年2月1日
【伯克利博士论文】学习在动态环境中泛化,103页pdf
专知会员服务
71+阅读 · 2022年10月12日
【KDD2020】图神经网络:基础与应用,322页ppt
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
多模态深度学习综述,18页pdf
专知
48+阅读 · 2020年3月29日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
146+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员