点击上方“专知”关注获取专业AI知识!
【导读】近日,深度学习顶会ICLR2018评审结果出炉,得分最高的论文是 《Certifiable Distributional Robustness with Principled Adversarial Training》,得到的是9,9,9的高分,三个评审人都给出了非常肯定的评价,这篇论文主要是针对在有对抗样本时,神经网络会非常脆弱,训练集中有个别的对抗样本常常就会导致训练的模型完全失效的问题,如何利用神经网络学到鲁棒的数据分布是一个非常重要的研究方向,论文提出一种称作分布鲁棒优化的方法来确保模型在有对抗样本干扰情况下仍然有很好的表现。以下是相关论文介绍。
当前,我们在利用神经网络来学习数据的分布。 对于回归/分类问题, 我们学习已知数据关于类别信息的分布, 对于GAN等, 我们直接学习数据的分布。
然而,在有对抗样本的时,神经网络非常脆弱,训练集中有个别的对抗样本常常就会导致训练的模型完全失效。因此, 利用神经网络学到的鲁棒的数据分布是非常重要的 。
对于分布,考虑对真实数据分布单位Wasserstein球内(关于Wasserstain散度, 参见Wiki)扰动的拉格朗日惩罚,文章提出了一种考虑最坏的训练数据扰动情况下模型参数的更新规则, 称作分布鲁棒优化。
在这样的模型求解机制下, 我们可以确保模型在有对抗样本干扰情况下仍然有很好的表现。传统的SMT方法可以得到类似的稳定的分布, 但是由于计算成本太高无法在实践中应用。本文提出的训练机制在损失函数光滑时,相比于通常基于经验损失的目标函数, 几乎不会增加计算和统计的代价。
论文:Certifiable Distributional Robustness with Principled Adversarial Training
▌摘要
由于神经网络容易受到对抗样本的干扰,因此研究人员提出了许多启发式的攻击和防御机制。我们采用分布鲁棒优化的观点,保证对抗输入干扰下网络的性能。通过考虑拉格朗日惩罚公式在Wasserstein ball的源数据分布上的干扰,我们提供了一个训练过程,增强了训练数据在最坏情况干扰下的模型参数更新。对于光滑损失,我们的方法在保证中等程度的鲁棒性的同时,具有很小的计算或统计成本。此外,我们的统计保证我们的整体损失具有鲁棒性。我们达到或超越了监督和强化学习任务中的启发式方法。
▌详细内容
神考虑经典的监督分类问题,我们最小化参数的预期损失。其中是在空间上的分布,是一个损失函数。在很多系统中,数据生成分布中鲁棒性的改变是合理的,要么是共变量转移,要么是基础领域的变化,或者是对抗攻击。随着深度网络在现代追求性能的系统(例如,自驾车的感知,肿瘤的自动检测)中变得流行起来,模型故障逐渐导致危及生命的情况发生;在这些系统中, 部署那些不能证明其鲁棒性的模型是不负责任的。
然而,最近的研究表明,神经网络很容易受到对抗例子的影响;似乎无法察觉的对数据的干扰会导致模型的错误,例如,输出错误的分类。随后,很多研究人员提出了对抗攻击和防御机制。虽然这些工作为对抗训练提供了初步的基础,但是对于提出的白盒攻击是否能够找到最有敌意的干扰以及这样的防御能否成功阻止的一类攻击没有保证。另一方面,使用SMT解决方案对深层网络进行验证,在鲁棒性方面提供了正式的保证,但总的来说是困难的(NP-hard);这种方法即使在小型网络上也需要高昂的计算费用。
我们从分布鲁棒性优化的角度出发,提供了一个对抗训练过程,其计算和统计性能得到了保证。我们假设数据生成的分布Z〜P0的一个分布类别为,并考虑这个问题如下:
的选择影响鲁棒性和可计算性; 我们通过计算有效的松弛开发鲁棒性集合,适用于即使损失是非凸的情况。我们提供一个对抗性训练程序,为了平滑,享有类似于非鲁棒方法的收敛性,同时保证了即使在最坏的情况下总体损失的性能。在Tensorflow的一个简单的实现中,我们的方法是经验任务最小化(ERM)的随机梯度方法的5-10倍,并且能达到其他对抗训练程序的运行时间。我们展示了我们的程序,其在学习过程中,防止对抗性干扰在训练数据集上推广,使我们能够训练一个模型,防止其对测试数据集的攻击。
我们简要概述一下我们的方法。令,其中 表示一个将数据点干扰到的损失(通常使用,当)。我们然后考虑鲁棒性区域,是数据生成分布在度量标准中计算的临近。这个问题仍然是棘手的,因为具有任意的鲁棒性级别——至少在深度网络或其他复杂模型中——所以我们考虑一个固定的惩罚参数γ≥0拉格朗日松弛,导致新的公式:
我们已经用较鲁棒的代替损失取代了常用的损失;该代替损失(2b)允许对数据z的敌对干扰,该干扰受到参数γ大小的影响。我们用代替经验分布解决了常见的惩罚问题(2),其中是未知的(我们在下面将它称之为惩罚问题)。
惩罚问题(2)的关键特征是,对于平滑损失,在基本上没有计算或统计成本的情况下,可以实现中等水平的鲁棒性。更具体地,对于足够大的惩罚γ(通过对偶性,足够小的鲁棒性ρ),如果在z中是光滑的,替代函数(2b)中的函数是强凹的,因此是容易计算。因此,应用于问题(2)的随机梯度法与非鲁棒法(ERM)具有相似的收敛保证。在第3节中,我们给出了鲁棒性证明,表明我们大致免受所有分布扰动的影响,当干扰满足,其中是经验目标获得的鲁棒性。我们通过经验相似高效计算总体最坏情况的上界。这些结果表明,网络的优势是平滑激活而不是ReLUs。我们在第四部分通过实验验证了我们的结果,并且表明,即使是非平滑的损失,我们也能够在各种对抗性攻击中达到最先进的性能。
鲁棒的优化和对抗训练
标准的鲁棒性优化方法是最小化损失函数的值,其中是一些不可靠的集合。不幸的是,这种方法有局限性,除了特殊的结构损失,如线性和简单的凸函数的组成函数。然而,这种鲁棒的方法成为最近对抗训练的基础,对抗训练在一个随机的过程中,会考虑到噪声数据优化过程。有一种这样的探索研究,利用局部线性损失函数(提出,称为“快速梯度符号法”(Goodfellowet al. 2015))
一种形式的对抗训练只简单训练受干扰的损失(Goodfellow et al., 2015; Kurakin et al., 2016),这种方法有很多其他的变体(Papernot et al., 2016b; Tramer ` et al., 2017; Carlini & Wagner,2017; Madry et al., 2017). Madry et al. (2017),这些方法试图优化目标函数,它是惩罚问题(2)的有约束版本。这种鲁棒的想法通常是难以处理的:u中内部最小上界通常是非凹的,所以目前还不清楚这些技术是否适合模型拟合,并且这些技术可能不能发现最坏的情况。事实上,当深度网络使用ReLU激活时,难以找到最坏的干扰情况,这表明快速迭代的启发是很难的(见引理2和附录B)。平滑度可以在指数线性单位的标准深层结构中获得(ELU),允许我们用低的计算成本来发现拉格朗日最坏的干扰。
分布式鲁棒性最优化。
为了对当前的工作进行定位,我们回顾了一些关于鲁棒性研究的工作。鲁棒目标(1)中的选择既影响我们想要考虑的不确定性集合的丰富性,又影响最终优化问题的易处理性。先前的分布式鲁棒性方法已经考虑了对进行有限维参数化,例如,对时间,支持,或方向偏差的约束集,以及诸如f-散度的概率测量的非参数距离,和Wasserstein距离。与对固定分布提供有效支持的f-散度相比,周围的Wasserstein ball包含不同支持的分布Q,并且允许(在某种意义上)对不可见的数据的鲁棒性。
许多学者研究了不确定集合和损失的可跟踪级别。例如,(Ben-Tal et al. (2013)和(Ben-Tal et al. (2013)用凸优化的方法处理f-散度球。对于Wasserstein balls形成的最坏区域,(Esfahani & Kuhn 2015),(Shafieezadeh-Abadehet al. 2015)和(Blanchet et al. 2016)展示了如何将鞍点(saddle-point)问题(1)转化为正则化的ERM问题,但是这只能用于有限类凸损失和成本c。在本文工作中,我们处理了一个更大类别的损失和成本,并提供了一个拉格朗日松弛鞍点(saddle-point)问题的直接解法。
▌详细实验分析
实验图
图1:在合成数据中的实验结果。训练数据用蓝色和橘红色展示。ERM、FGM和WRM的分类边界分别用黄色、紫色和绿色表示。这些边界显示的是训练数据与真正的类边界的分离。
图2:MNIST数据集上PGM攻击。(a)和(b)展示测试分类的错误率,PGM攻击的对抗干扰水平分别为欧几里得和最大符号准则。(a)中的竖条指示用于训练FGM,IFGM和PGM模型的干扰水平以及估计半径。对于MNIST,,。
图3:损失表现的稳定性。在(a)中我们展示了给定的情况下受干扰分布的平均距离。决策表面输入的局部稳定性指标。(a)中的竖条表示用于训练WRM的γ。在(b)中,我们想象出使模型误分类数据点所必需的最小WRM扰动(最大)。
图4:训练期的Episode长度。环境上限为400步。
表1:超过1000次试验的Episode长度(平均值±标准误差)
图5:在MNIST数据集上进行快速梯度攻击(Fast-gradient attacks)的结果。(a)和(b)展示测试分类的错误率,FGM攻击的对抗干扰水平分别为欧几里得和最大符号准则。(a)中的竖条表示用于训练FGM、IFGM和PGM模型的干扰水平和评估半径。
图6:在MNIST数据集上进行反复快速梯度攻击(Iterated Fast-gradient attacks)的结果。(a)和(b)展示测试分类的错误率,IFGM攻击的对抗干扰水平分别为欧几里得和最大符号准则。(a)中的竖条表示用于训练FGM、IFGM和PGM模型的干扰水平和评估半径。
图7:可视化输入的稳定性。我们举例说明了使模型对数据点进行错误分类所需的最小WRM干扰(最大)。
图8:(a)稳定性;(b)固定对手的测试错误(test error for a fixed adversary.)。我们用不同的γ训练WRM模型,并用一个固定的WRM对手干扰它们(竖线表示)。
▌结论
形式(5)的显式分布式鲁棒性除了可以用在有限类的情况下,在其他情况下是难以处理的。我们提供了一种有效的保证分布鲁棒性的方法,它对于对抗数据干扰具有简单形式描述。只使用损失函数的平滑性假设,证明了我们的方法对于一大类问题具有很强的统计保证和快速的优化率。ReLU网络鲁棒性的NP-hardness问题,加上我们在深度学习中的平滑网络的经验成功和理论证明,表明如果我们希望保证鲁棒性,使用平滑网络是可取的。经验性的评估表明,我们的方法实际上对数据中的干扰是鲁棒的,并且它们优于较少原则性的对抗训练技术。我们的方法的主要好处是其在许多模型和机器学习场景下的简单性和广泛的适用性。
▌评论意见
1. 9分,在这篇非常好的论文中,我们的目标是利用鲁棒学习:不仅要将分布P_0进行风险最小化,而且还要对抗学习P_0周围的最坏情况分布的干扰。由于最小-最大问题一般是困难的,所以在这里实际研究的是这类问题的松弛(非严格的):有可能给出该问题的非凸对偶表述。如果对偶参数足够大,那么由于初始损失是平滑的,函数就变成了凸函数。接下来可证明的边界,针对分布ball范围内鲁棒学习和随机优化任务。实验表明,这样做的表现符合预期,并对于为什么会出现这种情况给出了一个很好的解释:分离线被从样本中“推开”,并且边缘似乎随着这个过程而增加。
2. 9分,本文将最近文献中的研究思想应用于鲁棒优化中,特别是使用Wasserstein度量的分布鲁棒优化,并且表明在鲁棒性要求不太高的平滑损失函数的框架下,所得到的优化问题与原来相比具有相同的难度水平(不考虑对抗攻击)。我认为这个想法是直观和合理的,结果是很不错的。虽然只有在强度较弱的情况下才有效,但在实践中,这相对于存在大偏差/敌手,似乎是更常见的情况。由于对抗训练是深度学习的重要课题,我觉得这项工作可能会导致为对抗训练提供有前途和原则的方法。
3. 9分,本文提出了一个有原则的方法来诱导训练神经网络的分布鲁棒性,目的是减轻对抗性样例的影响。这个想法是:训练这个模型使之不仅在未知的总体分布方面表现良好,而且在总体分布周围某些最坏情况分布表现良好。具体而言,作者采用Wasserstein距离来定义歧义集(ambiguity sets)。这使得他们可以使用分布的鲁棒优化文献中的强对偶结果,并将经验极小-极大问题表示为具有不同成本的正则化ERM。本文的理论得到了实验结果的支持。总的来说,这是一篇写得很好的论文,它创造性地结合了许多有趣的想法来解决一个重要的问题。
参考文献:
https://openreview.net/pdf?id=Hk6kPgZA-
https://openreview.net/forum?id=Hk6kPgZA-
请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知)
后台回复“CDR” 就可以获取本论文pdf下载~
-END-
专 · 知
人工智能领域主题知识资料查看获取:【专知荟萃】人工智能领域25个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)
请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!
请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!
请下方扫一扫专知小助手微信(Rancho_Fang),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~
点击“阅读原文”,使用专知!