Neural Architecture Search (NAS) represents an emerging machine learning (ML) paradigm that automatically searches for models tailored to given tasks, which greatly simplifies the development of ML systems and propels the trend of ML democratization. Yet, little is known about the potential security risks incurred by NAS, which is concerning given the increasing use of NAS-generated models in critical domains. This work represents a solid initial step towards bridging the gap. Through an extensive empirical study of 10 popular NAS methods, we show that compared with their manually designed counterparts, NAS-generated models tend to suffer greater vulnerability to various malicious attacks (e.g., adversarial evasion, model poisoning, and functionality stealing). Further, with both empirical and analytical evidence, we provide possible explanations for such phenomena: given the prohibitive search space and training cost, most NAS methods favor models that converge fast at early training stages; this preference results in architectural properties associated with attack vulnerability (e.g., high loss smoothness and low gradient variance). Our findings not only reveal the relationships between model characteristics and attack vulnerability but also suggest the inherent connections underlying different attacks. Finally, we discuss potential remedies to mitigate such drawbacks, including increasing cell depth and suppressing skip connects, which lead to several promising research directions.


翻译:神经建筑搜索(NAS)是一个新兴的机器学习(ML)范例,它自动搜索适合特定任务的模式,大大简化了ML系统的发展,推动了ML民主化趋势;然而,对于NAS的潜在安全风险,却知之甚少,因为NAS在关键领域越来越多地使用NAS产生的模型。这项工作是缩小差距的坚实的第一步。通过对10种流行NAS方法的广泛经验研究,我们发现,NAS产生的模型与其手工设计的对等模型相比,往往更容易受到各种恶意攻击(例如对抗性规避、模式中毒和功能盗窃)的影响。此外,根据经验证据和分析证据,我们对这种现象提供了可能的解释:由于搜索空间和训练成本过高,大多数NAS方法都倾向于在早期培训阶段迅速结合的模式;这种偏好的结果与攻击脆弱性有关的建筑特性(例如高损失平滑和低坡度差异)有关。我们的调查结果不仅揭示了模型特征和攻击脆弱性之间的关系,而且还表明不同攻击背后的内在联系。我们讨论的是,因为有经验证据和分析证据,我们可能对这类现象作出解释:鉴于搜索空间和训练成本过高,大多数方法都倾向于在早期训练阶段迅速结合;这种可能的补救办法,包括逐步缩小各种研究的深度。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
91+阅读 · 2021年7月23日
【XAUTOML】可解释自动机器学习,27页ppt
专知会员服务
60+阅读 · 2021年4月23日
专知会员服务
35+阅读 · 2021年3月21日
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
17+阅读 · 2020年9月6日
自动机器学习:最新进展综述
专知会员服务
117+阅读 · 2019年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机类 | SIGMETRICS 2019等国际会议信息7条
Call4Papers
9+阅读 · 2018年10月23日
AutoML 和神经架构搜索初探
AI研习社
3+阅读 · 2018年8月5日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
37+阅读 · 2021年9月28日
Arxiv
30+阅读 · 2021年8月18日
AutoML: A Survey of the State-of-the-Art
Arxiv
68+阅读 · 2019年8月14日
VIP会员
相关VIP内容
专知会员服务
91+阅读 · 2021年7月23日
【XAUTOML】可解释自动机器学习,27页ppt
专知会员服务
60+阅读 · 2021年4月23日
专知会员服务
35+阅读 · 2021年3月21日
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
17+阅读 · 2020年9月6日
自动机器学习:最新进展综述
专知会员服务
117+阅读 · 2019年10月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机类 | SIGMETRICS 2019等国际会议信息7条
Call4Papers
9+阅读 · 2018年10月23日
AutoML 和神经架构搜索初探
AI研习社
3+阅读 · 2018年8月5日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员