尽管深度神经网络(DNNs)取得了巨大的成功,但最近的研究表明,它们在对抗式样例面前是脆弱的,这些样例的目的是通过添加小的对抗式扰动来误导DNNs。针对这类攻击,人们提出了几种防御方法,其中许多方法被自适应攻击。在这项工作中,我们旨在通过利用领域知识从不同的角度增强ML鲁棒性: 我们提出了一个知识增强机器学习管道(KEMLP),通过一阶逻辑规则将领域知识(即不同预测之间的逻辑关系)集成到一个概率图模型中。特别是,我们开发KEMLP的方法是,根据执行目标任务的主要DNN模型的逻辑关系,集成一组不同的弱辅助模型。在理论上,我们给出了收敛结果,并证明了在适当条件下,KEMLP的预测比主DNN模型的预测更具有鲁棒性。实证研究以路标识别为例,利用路标与形状、内容之间的关系作为领域知识。我们表明,与对抗训练和其他基线相比,在白盒和黑盒设置下,KEMLP对物理攻击、L_p有界攻击、不可预见的攻击和自然破坏都实现了更高的鲁棒性,同时仍然保持较高的准确性。

https://icml.cc/Conferences/2021/Schedule?showEvent=9790

成为VIP会员查看完整内容
20

相关内容

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。
专知会员服务
18+阅读 · 2021年7月28日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
37+阅读 · 2021年7月27日
专知会员服务
68+阅读 · 2021年4月27日
【WWW2021】对众包系统的数据中毒攻击和防御
专知会员服务
20+阅读 · 2021年2月22日
专知会员服务
25+阅读 · 2021年1月21日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
【GNN】R-GCN:GCN 在知识图谱中的应用
深度学习自然语言处理
11+阅读 · 2020年5月4日
【清华大学】元知识图谱推理
专知
128+阅读 · 2019年9月2日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
Arxiv
5+阅读 · 2021年4月21日
Arxiv
27+阅读 · 2020年6月19日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
VIP会员
相关VIP内容
专知会员服务
18+阅读 · 2021年7月28日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
37+阅读 · 2021年7月27日
专知会员服务
68+阅读 · 2021年4月27日
【WWW2021】对众包系统的数据中毒攻击和防御
专知会员服务
20+阅读 · 2021年2月22日
专知会员服务
25+阅读 · 2021年1月21日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
[NeurIPS 2020]对图神经网络更实际的对抗式攻击
专知会员服务
8+阅读 · 2020年11月1日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
相关资讯
微信扫码咨询专知VIP会员