摘要

深度学习(Deep Learning, DL)是当前计算机视觉领域应用最广泛的工具。它精确解决复杂问题的能力被用于视觉研究,以学习各种任务的深度神经模型,包括安全关键应用。然而,现在我们知道,DL很容易受到对抗性攻击,这些攻击可以通过在图像和视频中引入视觉上难以察觉的扰动来操纵它的预测。自2013年~[1]发现这一现象以来,引起了机器智能多个子领域研究人员的极大关注。在[2]中,我们回顾了计算机视觉社区在深度学习的对抗性攻击(及其防御)方面所做的贡献,直到2018年到来。这些贡献中有许多启发了这一领域的新方向,自见证了第一代方法以来,这一领域已显著成熟。因此,作为[2]的后续成果,本文献综述主要关注自2018年以来该领域的进展。为了确保文章的真实性,我们主要考虑计算机视觉和机器学习研究的权威文献。除了全面的文献综述外,本文还为非专家提供了该领域技术术语的简明定义。最后,本文在文献综述和[2]的基础上,讨论了该方向面临的挑战和未来的展望。

https://www.zhuanzhi.ai/paper/884c8b91ceec8cdcd9d3d0cc7bd2cf85

引言

深度学习(DL)[3]是一种数据驱动技术,可以在大数据集上精确建模复杂的数学函数。它最近为科学家在机器智能应用方面提供了许多突破。从DNA[4]的突变分析到脑回路[5]的重建和细胞数据[6]的探索; 目前,深度学习方法正在推进我们对许多前沿科学问题的知识。因此,机器智能的多个当代子领域迅速采用这种技术作为“工具”来解决长期存在的问题也就不足为奇了。随着语音识别[7]和自然语言处理[8],计算机视觉是目前严重依赖深度学习的子领域之一。

计算机视觉中深度学习的兴起是由Krizhevsky等人在2012年的开创性工作触发的,他们报告了使用卷积神经网络(CNN)[11]在硬图像识别任务[10]上的记录性能改善。自[9]以来,计算机视觉社区对深度学习研究做出了重大贡献,这导致了越来越强大的神经网络[12]、[13]、[14],可以在其架构中处理大量层——建立了“深度”学习的本质。计算机视觉领域的进步也使深度学习能够解决人工智能(AI)的复杂问题。例如,现代人工智能的一个最高成就,即tabula-rasa learning[15],很大程度上要归功于源于计算机视觉领域的残差学习[12]。

由于深度学习[15]的(明显)超人类能力,基于计算机视觉的人工智能被认为已经达到部署在安全和安保关键系统所需的成熟度。汽车自动驾驶[18],ATM的面部识别[19]和移动设备的面部识别技术[20]都是一些早期的真实世界的例子,描绘了现代社会对计算机视觉解决方案的发展信念。随着高度活跃的基于深度学习的视觉研究,自动驾驶汽车[21],人脸识别[22],[23],机器人[24]和监控系统[25]等,我们可以预见,深度学习在关键安全计算机视觉应用中的无处不在。然而,由于深度学习[1]的对抗漏洞的意外发现,人们对这种前景产生了严重的担忧。

Szegedy等人[1]发现,深度神经网络预测可以在极低量级输入扰动下被操纵。对于图像而言,这些扰动可以限制在人类视觉系统的不可感知范围内,但它们可以完全改变深度视觉模型的输出预测(见图1)。最初,这些操纵信号是在图像分类任务[1]中发现的。然而,它们的存在现在已被公认为各种主流计算机视觉问题,如语义分割[27],[28];目标检测[29],[30];目标跟踪[31],[32]。文献强调了对抗式干扰的许多特征,这使它们对作为实用技术的深度学习构成了真正的威胁。例如,可以反复观察到,受攻击的模型通常对操纵图像[2],[17]的错误预测具有很高的置信度。同样的微扰常常可以欺骗多个模型[33],[34]。文献也见证了预先计算的扰动,称为普遍扰动,可以添加到“任何”图像,以高概率[35],[36]欺骗给定模型。这些事实对关键安全应用有着深远的影响,特别是当人们普遍认为深度学习解决方案具有超越人类能力[15],[37]的预测能力时。

由于其重要性,对抗性攻击(及其防御)的话题在过去五年中受到了研究团体的相当大的关注。在[2]中,我们调研了这个方向的贡献,直到2018年到来。这些工作中的大多数可以被视为第一代技术,探索核心算法和技术,以欺骗深度学习或防御它的对抗性攻击。其中一些算法激发了后续方法的灵感,进一步改进和适应核心攻击和防御技术。这些第二代方法也被发现更多地关注其他视觉任务,而不仅仅是分类问题,这是这一方向早期贡献的主要兴趣主题。

自2018年以来,该研究方向的论文发表数量不断增加(见图2-a,b)。当然,这些出版物也包括文献综述的实例,如[38],[39],[40],[41],[42]。我们在这里提供的文献综述在许多方面不同于现有的综述。这篇文章的独特之处在于它是2的继承。随后的调研,如[41],通常紧跟[2];或者针对特定问题在[2]上建立[42]。近年来,这一方向在计算机视觉领域已经显著成熟。通过构建[2]和后续文献的见解,我们能够为这一快速发展的研究方向提供更精确的技术术语定义。这也导致了本文所回顾的文献的更连贯的结构,为此我们提供了基于研究团体当前对术语的理解的简明讨论。此外,我们关注出现在著名的计算机视觉和机器学习研究出版刊物的论文。专注于领先的贡献使我们能够为计算机视觉和机器学习研究人员提供一个更清晰的方向展望。更不用说,本文回顾了这个快速发展领域的最新贡献,以提供迄今为止在这个方向上最全面的回顾。

本文的其余部分组织如下。在第二节中,我们提供了本文其余部分中使用的技术术语的定义。在第三节中,我们阐述了对抗性攻击这一更广泛的问题。第一代攻击将在第四节中讨论,接下来是第五节中关注分类问题的最近的攻击。我们在第六节中关注分类问题之外的最近的攻击,在第七节中关注针对物理世界的量身定制的攻击。更多侧重于存在对抗性例子的理论方面的贡献将在第九节中讨论。最近的防御方法是第十部分的主题。文章对第十一部分的文献趋势进行了反思,并对这一研究方向的前景和未来方向进行了讨论。最后,我们在第十二节结束。

成为VIP会员查看完整内容
0
32

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

随着深度神经网络在机器学习的各个领域获得广泛成功, 其自身所存在的问题也日益尖锐和突出, 例如可解释性差、鲁棒性弱和模型训练难度大等. 这些问题严重影响了神经网络模型的安全性和易用性. 因此, 神经网络的可解释性受到了大量的关注, 而利用模型可解释性改进和优化模型的性能也成为研究热点之一. 在本文中, 我们通过几何中流形的观点来理解深度神经网络的可解释性, 在通过流形视角分析神经网络所遇到的问题的同时, 汇总了数种有效的改进和优化策略并对其加以解释. 最后, 本文对深度神经网络流形解释目前存在的挑战加以分析, 提出将来可能的发展方向, 并对今后的工作进行了展望.

https://www.sciengine.com/publisher/scp/journal/SSI/51/9/10.1360/SSI-2020-0169?slug=fulltext

成为VIP会员查看完整内容
0
14

摘要

在过去的几十年里,人工智能技术迅猛发展,改变了每个人的日常生活,深刻改变了人类社会的进程。开发人工智能的目的是通过减少劳动、增加生活便利、促进社会公益来造福人类。然而,最近的研究和人工智能应用表明,人工智能可能会对人类造成意外伤害,例如,在安全关键的情况下做出不可靠的决定,或通过无意中歧视一个或多个群体而破坏公平。因此,值得信赖的人工智能最近受到越来越多的关注,人们需要避免人工智能可能给人们带来的负面影响,以便人们能够充分信任人工智能技术,与人工智能技术和谐相处。近年来,人们对可信人工智能进行了大量的研究。在本次综述中,我们从计算的角度对值得信赖的人工智能进行了全面的评述,帮助读者了解实现值得信赖的人工智能的最新技术。值得信赖的人工智能是一个大而复杂的课题,涉及方方面面。在这项工作中,我们关注实现值得信赖的人工智能的六个最关键方面: (i) 安全性和健壮性,(ii) 非歧视和公平,(iii) 可解释性,(iv) 隐私,(v) 问责性和可审计性,和(vi) 环境福祉。对于每个维度,我们根据一个分类回顾了最近的相关技术,并总结了它们在真实系统中的应用。我们还讨论了不同维度之间的协调和冲突互动,并讨论了值得信赖的人工智能在未来研究的潜在方面。

引言

人工智能(AI)是一门研究和发展模拟、扩展和拓展人类智能的理论、方法、技术和应用系统的科学,为现代人类社会带来了革命性的影响。从微观角度来看,人工智能在我们生活的许多方面发挥着不可替代的作用。现代生活充满了与人工智能应用的互动: 从用人脸识别解锁手机,与语音助手交谈,到购买电子商务平台推荐的产品; 从宏观角度看,人工智能创造了巨大的经济成果。世界经济论坛的《2020年就业前景报告》[136]预测,人工智能将在5年内创造5800万个新就业岗位。到2030年,人工智能预计将产生13万亿美元的额外经济利润,对全球GDP的年增长率贡献1.2%[54]。然而,随着其快速而令人印象深刻的发展,人工智能系统也暴露了其不值得信任的一面。例如,安全至关重要的人工智能系统在对抗攻击时很脆弱。无人驾驶汽车的深度图像识别系统可能无法识别被恶意攻击者修改的路标[345],对乘客安全构成极大威胁。此外,人工智能算法可能会导致偏见和不公平。在线人工智能聊天机器人可能会产生不雅、种族主义和性别歧视的内容[335],冒犯用户,并产生负面社会影响。此外,人工智能系统还存在泄露用户隐私和商业秘密的风险。黑客可以利用人工智能模型产生的特征向量来重构私人输入数据,如指纹[25],从而泄露用户的敏感信息。这些漏洞会使现有的人工智能系统无法使用,并可能造成严重的经济和安全后果。对于人工智能来说,要想在一个领域取得进步、得到更广泛的应用并创造更多的经济价值,对诚信的担忧已经成为一个巨大的障碍。因此,如何构建可信的人工智能系统成为学术界和业界关注的焦点。

近年来,出现了大量关于可信人工智能的文献。随着构建可信人工智能的需求日益增长,总结已有成果并探讨未来可能的研究方向势在必行。在本次综述中,我们提供了值得信赖的人工智能的全面概述,以帮助新手对什么使人工智能系统值得信赖有一个基本的了解,并帮助老兵跟踪该领域的最新进展。我们澄清了可信人工智能的定义,并介绍了可信人工智能的六个关键维度。对于每个维度,我们给出了它的概念和分类,并回顾了有代表性的算法。我们还介绍了不同维度之间可能的互动,并讨论了值得信赖的人工智能尚未引起足够关注的其他潜在问题。除了定义和概念,我们的综述还关注实现可信人工智能每个维度的具体计算解决方案。这一视角有别于现有的一些相关工作,如政府指南[307],建议如何以法律法规的形式建立一个值得信赖的人工智能系统,或综述[51,318],从高层次、非技术的角度讨论值得信赖的人工智能的实现。

根据欧盟(EU)最近提供的人工智能伦理指南[307],一个值得信赖的人工智能系统应符合四项伦理原则: 尊重人类自主、防止伤害、公平和可解释性。基于这四个原则,人工智能研究人员、实践者和政府提出了值得信赖的人工智能的各个具体维度[51,307,318]。在这项调查中,我们重点关注已经被广泛研究的六个重要和相关的维度。如图1所示,它们是安全性和稳健性、非歧视性和公平性、可解释性、隐私性、可审计性和可问责性,以及环境福祉。

余下论文综述组织如下。在第2节中,我们明确了值得信赖的AI的定义,并提供了值得信赖的AI的各种定义,帮助读者理解来自计算机科学、社会学、法律、商业等不同学科的研究人员是如何定义值得信赖的AI系统的。然后,我们将值得信赖的人工智能与伦理人工智能和负责任的人工智能等几个相关概念区分开来。在第3节中,我们详细介绍了安全性和稳健性的维度,这要求人工智能系统对输入的噪声扰动具有稳健性,并能够做出安全的决策。近年来,大量研究表明,人工智能系统,尤其是那些采用深度学习模型的系统,可能对有意或无意的输入扰动非常敏感,对安全至关重要的应用构成巨大风险。例如,如前所述,自动驾驶汽车可能会被改变的路标欺骗。此外,垃圾邮件检测模型可能会被设计良好的文本[30]邮件欺骗。因此,垃圾邮件发送者可以利用这个弱点,使他们的电子邮件不受检测系统的影响,这将导致糟糕的用户体验。已经证明,人工智能算法可以通过提供的训练例子学习人类的歧视,并做出不公平的决定。例如,一些人脸识别算法难以识别非洲裔美国人的面孔[280]或将其误分类为大猩猩[168]。此外,语音听写软件在识别男性声音时通常比识别女性声音表现得更好[277]。

在第4节中,我们介绍了非歧视和公平的维度,在这个维度中,人工智能系统被期望避免对某些群体或个人的不公平偏见。在第5节中,我们讨论了可解释性的维度,这表明AI的决策机制系统应该能够向利益相关者解释(他们应该能够理解解释)。例如,人工智能技术已经被用于根据患者的症状和身体特征进行疾病诊断[289]。在这种情况下,黑箱决策是不可接受的。推理过程应该对医生和患者透明,以确保诊断的每个细节都是准确的。

研究人员发现,一些人工智能算法可以存储和暴露用户的个人信息。例如,在人类会话语料库上训练的对话模型可以记住敏感信息,如信用卡号码,这些信息可以通过与模型交互而得到[164]。在第6节中,我们提出了隐私的维度,这需要一个人工智能系统来避免泄露任何私人信息。在第7节中,我们描述了可审计性和问责性的维度,该维度期望人工智能系统由第三方评估,并在必要时为人工智能故障分配责任,特别是在关键应用中[307]。最近,人工智能系统对环境的影响引起了人们的关注,因为一些大型人工智能系统消耗了大量的能源。作为一项主流的人工智能技术,深度学习正在朝着追求更大的模型和更多的参数的方向发展。因此,会消耗更多的存储和计算资源。一项研究[312]表明,训练BERT模型[110]需要排放大约1400磅二氧化碳,这与跨美国的往返飞行相当。因此,人工智能系统应该是可持续的和环境友好的。

在第8节中,我们回顾了环境福利的维度。在第9节中,我们将讨论不同维度之间的相互作用。最近的研究表明,值得信赖的AI的不同维度之间存在一致性和冲突[307,333]。例如,深度神经网络的鲁棒性和可解释性紧密相连,鲁棒模型往往更具有可解释性[122,322],反之亦然[255]。此外,研究表明,在某些情况下,健壮性和隐私之间存在权衡。例如,对抗性防御方法会使模型更容易受到成员推理攻击,增加了训练数据泄漏的风险[308]。

除了上述六个维度,值得信赖的人工智能还有更多的维度,如人工代理和监督、可信性等。尽管这些额外的维度与本文中考虑的6个维度一样重要,但它们还处于开发的早期阶段,相关文献非常有限,特别是对于计算方法而言。因此,在第10节中,我们将讨论值得信赖的人工智能的这些方面,作为未来需要专门研究的方向。

成为VIP会员查看完整内容
0
51

由于神经网络的日益普及,对神经网络预测的信心变得越来越重要。然而,基本的神经网络不会给出确定性估计,也不会受到信心过度或不足的影响。许多研究人员一直致力于理解和量化神经网络预测中的不确定性。因此,不同类型和来源的不确定性已被识别,并提出了各种方法来测量和量化神经网络中的不确定性。本工作对神经网络中的不确定性估计进行了全面的概述,综述了该领域的最新进展,突出了当前的挑战,并确定了潜在的研究机会。它旨在给任何对神经网络中的不确定性估计感兴趣的人一个广泛的概述和介绍,而不预设在这一领域有先验知识。对不确定性的主要来源进行了全面的介绍,并将它们分为可约模型不确定性和不可约数据不确定性。本文介绍了基于确定性神经网络、贝叶斯神经网络、神经网络集成和测试时间数据增强等方法对这些不确定性的建模,并讨论了这些领域的不同分支和最新进展。对于实际应用,我们讨论不确定性的不同措施,校准神经网络的方法,并给出现有基线和实现的概述。来自不同领域广泛挑战的不同例子,提供了实际应用中有关不确定性的需求和挑战的概念。此外,讨论了当前用于任务和安全关键的现实世界应用的方法的实际限制,并展望了未来的步骤,以更广泛地使用这些方法。

https://www.zhuanzhi.ai/paper/9a9009dae03438c7a71e0bc1b54de0fa

成为VIP会员查看完整内容
0
47

在人类中,注意力是所有感知和认知操作的核心属性。考虑到我们处理竞争性信息来源的能力有限,注意力机制选择、调整和关注与行为最相关的信息。

几十年来,哲学、心理学、神经科学和计算机科学都在研究注意力的概念和功能。在过去的六年中,这一特性在深度神经网络中得到了广泛的研究。目前,深度学习的研究进展主要体现在几个应用领域的神经注意力模型上。

本研究对神经注意力模型的发展进行了全面的概述和分析。我们系统地回顾了该领域的数百个架构,识别并讨论了那些注意力显示出重大影响的架构。我们亦制订了一套自动化方法体系,并将其公诸于众,以促进这方面的研究工作。通过批判性地分析650部文献,我们描述了注意力在卷积、循环网络和生成模型中的主要用途,识别了使用和应用的共同子组。

此外,我们还描述了注意力在不同应用领域的影响及其对神经网络可解释性的影响。最后,我们列出了进一步研究的可能趋势和机会,希望这篇综述能够对该领域的主要注意力模型提供一个简明的概述,并指导研究者开发未来的方法,以推动进一步的改进。

成为VIP会员查看完整内容
0
139

生成对抗网络(GANs)在过去的几年里得到了广泛的研究。可以说,它们最重要的影响是在计算机视觉领域,在这一领域中,图像生成、图像-图像转换、面部属性处理和类似领域的挑战取得了巨大进展。尽管迄今为止已经取得了重大的成功,但将GAN应用于现实世界的问题仍然面临着重大的挑战,我们在这里重点关注其中的三个。这是: (1)生成高质量的图像; (2) 图像生成的多样性; (3) 稳定的训练。我们将重点关注目前流行的GAN技术在应对这些挑战方面取得的进展程度,并对已发表文献中GAN相关研究的现状进行了详细回顾。我们进一步通过一个分类结构,我们已经采用了基于GAN体系架构和损失函数的变化。虽然到目前为止已经提交了几篇关于GANs的综述,但没有一篇是基于它们在解决与计算机视觉相关的实际挑战方面的进展来考虑这一领域的现状。因此,为了应对这些挑战,我们回顾并批判性地讨论了最流行的架构变体和损失变体GANs。我们的目标是在重要的计算机视觉应用需求的相关进展方面,对GAN的研究现状进行概述和批判性分析。在此过程中,我们还将讨论GANs在计算机视觉方面最引人注目的应用,并对未来的研究方向提出一些建议。本研究中所研究的GAN变体相关代码在

https://github.com/sheqi/GAN_Review上进行了总结。

地址: https://www.zhuanzhi.ai/paper/13d539e47a5fb31c850a19db08c63923

生成对抗网络(GANs)在深度学习社区[1]-[6]吸引了越来越多的兴趣。GANs已应用于计算机视觉[7]-[14]、自然语言处理[15]-[18]、时间序列合成[19]-[23]、语义分割[24]-[28]等多个领域。GANs属于机器学习中的生成模型家族。与其他生成模型(如变分自编码器)相比,GANs提供了一些优势,如能够处理清晰的估计密度函数,有效地生成所需样本,消除确定性偏差,并与内部神经结构[29]具有良好的兼容性。这些特性使GANs获得了巨大的成功,特别是在计算机视觉领域,如可信图像生成[30]-[34],图像到图像转换[2],[35]-[41],图像超分辨率[26],[42]-[45]和图像补全[46]-[50]。

然而,GANs并非没有问题。最重要的两点是,它们很难训练,也很难评估。由于训练难度大,在训练过程中判别器和生成器很难达到纳什均衡,生成器不能很好地学习数据集的完整分布是常见的问题。这就是众所周知的模式崩溃问题。在[51]-[54]这一领域进行了大量的研究工作。在评估方面,首要问题是如何最好地衡量目标pr的真实分布与生成的分布pg之间的差异。不幸的是,不可能准确地估算pr。因此,对pr和pg之间的对应关系进行良好的估计是很有挑战性的。以往的研究提出了各种对GANs[55] -的评价指标[63]。第一个方面直接关系到GANs的性能,如图像质量、图像多样性和稳定训练。在这项工作中,我们将研究计算机视觉领域中处理这方面的现有GAN变体,而对第二方面感兴趣的读者可以参考[55][63]。

目前许多GAN研究可以从以下两个目标来考虑:(1)改进训练,(2)将GAN应用于现实应用。前者寻求提高GANs性能,因此是后者(即应用)的基础。考虑到许多已发表的关于GAN训练改进的结果,我们在本文中对这方面最重要的GAN变体进行了简要的回顾。GAN训练过程的改进提供了好处表现如下: (1)改进生成的图像的多样性(也称为模式多样性) ,(2)增加生成的图像质量,和 (3) 包含更多 :(1) 介绍相关GAN综述工作和说明的区别这些评论和这项工作; (2)简要介绍GANs;(3)回顾文献中关于“GAN”的架构变体;(4)我们回顾文献中损失变体的GAN;(5)介绍了GAN在计算机视觉领域的一些应用; (6)引入了GAN的评价指标,并利用部分指标(Inception Score和Frechet Inception Distance, FID)对本文讨论的GAN变量进行了比较;(7)我们总结了本研究中的GANs变体,说明了它们的差异和关系,并讨论了关于GANs未来研究的几种途径。(8)我们总结了这篇综述,并展望了GANs领域可能的未来研究工作。

文献中提出了许多GAN变体来提高性能。这些可以分为两种类型:(1)架构变体。第一个提出的GAN使用完全连接的神经网络[1],因此特定类型的架构可能有利于特定的应用,例如,用于图像的卷积神经网络(CNNs)和用于时间序列数据的循环神经网络(RNNs);和(2)Loss-variants。这里探讨了损失函数(1)的不同变化,以使G的学习更加稳定。

图2说明了我们对2014年至2020年文献中具有代表性GANs提出的分类法。我们将目前的GAN分为两种主要变体,即架构变体和损失变体。在体系架构变体中,我们分别总结了网络体系结构、潜在空间和应用三大类。网络架构范畴是指对GAN架构的整体改进或修改,例如PROGAN中部署的渐进机制。潜在空间类别表示基于潜在空间的不同表示方式对架构进行修改,例如CGAN涉及到编码到生成器和识别器的标签信息。最后一类,应用,指的是根据不同的应用所做的修改,例如,CycleGAN有特定的架构来处理图像风格的转换。根据损失的变化,我们将其分为两类:损失类型和正则化。损失类型是指GANs需要优化的不同损失函数,正则化是指对损失函数设计的额外惩罚或对网络进行任何类型的归一化操作。具体来说,我们将损失函数分为基于积分概率度量和非积分概率度量。在基于IPM的GAN中,鉴别器被限制为一类特定的函数[64],例如,WGAN中的鉴别器被限制为1-Lipschitz。基于非IPM的GAN中的鉴别器没有这样的约束。

成为VIP会员查看完整内容
0
94

摘要: 深度学习作为人工智能技术的重要组成部分,被广泛应用在计算机视觉、自然语言处理等领域。尽管深 度学习在图像分类和目标检测等方向上取得了较好性能,但研究表明,对抗攻击的存在对深度学习模型的安全应 用造成了潜在威胁,进而影响模型的安全性。本文在简述对抗样本的概念及其产生原因的基础上,分析对抗攻击 的主要思路,研究具有代表性的经典对抗样本生成方法。描述对抗样本的检测方法与防御方法,并从应用角度阐 述对抗样本在不同领域的应用实例。通过对对抗样本攻击与防御方法的分析与总结,预测未来对抗攻击与防御的 研究方向。

http://www.ecice06.com/CN/10.19678/j.issn.1000-3428.0059156

成为VIP会员查看完整内容
0
48

深度学习算法已经在图像分类方面取得了最先进的性能,甚至被用于安全关键应用,如生物识别系统和自动驾驶汽车。最近的研究表明,这些算法甚至可以超越人类的能力,很容易受到对抗性例子的攻击。在计算机视觉中,与之相对的例子是恶意优化算法为欺骗分类器而产生的含有细微扰动的图像。为了缓解这些漏洞,文献中不断提出了许多对策。然而,设计一种有效的防御机制已被证明是一项困难的任务,因为许多方法已经证明对自适应攻击者无效。因此,这篇自包含的论文旨在为所有的读者提供一篇关于图像分类中对抗性机器学习的最新研究进展的综述。本文介绍了新的对抗性攻击和防御的分类方法,并讨论了对抗性实例的存在性。此外,与现有的调查相比,它还提供了相关的指导,研究人员在设计和评估防御时应该考虑到这些指导。最后,在文献综述的基础上,对未来的研究方向进行了展望。

https://www.zhuanzhi.ai/paper/396e587564dc2922d222cd3ac7b84288

成为VIP会员查看完整内容
0
48

深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识。然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署。因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展。本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势。为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路。

成为VIP会员查看完整内容
0
124
小贴士
相关VIP内容
专知会员服务
14+阅读 · 2021年10月14日
专知会员服务
47+阅读 · 2021年7月9日
专知会员服务
139+阅读 · 2021年4月2日
专知会员服务
35+阅读 · 2021年1月17日
专知会员服务
48+阅读 · 2020年12月8日
专知会员服务
48+阅读 · 2020年9月10日
专知会员服务
124+阅读 · 2020年8月1日
相关资讯
【综述】医疗可解释人工智能综述论文
专知
15+阅读 · 2019年7月18日
2018最具突破性计算机视觉论文Top 10
炼数成金订阅号
15+阅读 · 2019年2月15日
必读!2018最具突破性计算机视觉论文Top 10
新智元
8+阅读 · 2019年2月15日
AI新方向:对抗攻击
网易智能菌
6+阅读 · 2018年11月14日
计算机视觉方向简介 | 目标检测最新进展总结与展望
计算机视觉life
7+阅读 · 2018年10月28日
相关论文
Zihan Liu,Yun Luo,Zelin Zang,Stan Z. Li
0+阅读 · 2021年10月25日
Michael W. Trosset,Gokcen Buyukbas
0+阅读 · 2021年10月21日
Matthias De Lange,Rahaf Aljundi,Marc Masana,Sarah Parisot,Xu Jia,Ales Leonardis,Gregory Slabaugh,Tinne Tuytelaars
20+阅读 · 2021年4月16日
Self-Attention Graph Pooling
Junhyun Lee,Inyeop Lee,Jaewoo Kang
4+阅读 · 2019年4月17日
Binary Constrained Deep Hashing Network for Image Retrieval without Manual Annotation
Thanh-Toan Do,Khoa Le,Trung Pham,Tuan Hoang,Huu Le,Ngai-Man Cheung,Ian Reid
3+阅读 · 2018年8月2日
Jyh-Jing Hwang,Tsung-Wei Ke,Jianbo Shi,Stella X. Yu
7+阅读 · 2018年5月18日
Quanshi Zhang,Song-Chun Zhu
12+阅读 · 2018年2月7日
Duhyeon Bang,Hyunjung Shim
7+阅读 · 2018年1月28日
Feng Wang,Weiyang Liu,Haijun Liu,Jian Cheng
10+阅读 · 2018年1月18日
Yike Liu,Abhilash Dighe,Tara Safavi,Danai Koutra
4+阅读 · 2017年4月12日
Top
微信扫码咨询专知VIP会员