人脸识别再曝安全漏洞:清华创业团队推出全球首个AI模型「杀毒软件」

2020 年 4 月 7 日 机器之心
机器之心报道

参与:泽南

瑞莱智慧刚刚发布的首个 AI 安全平台,发现了迄今为止最为「重大」的人脸识别安全漏洞。

4 月 7 日,来自清华的 RealAI(瑞莱智慧)发布了 RealSafe 人工智能安全平台,随之推出的测试结果令人惊讶:通过平台对微软、亚马逊云服务的人脸比对演示平台进行测试显示,基于 RealSafe 平台生成的对抗样本「噪音」能够极大干扰两大主流人脸比对平台的识别结果。
 
当前较为领先,且广泛被采用的多家人脸识别技术,现在可以被轻易破解了。

RealAI 研究团队选取了一组不同的人脸图片,通过 RealSafe 平台对其中一张图片生成对抗样本,但不影响肉眼判断,添加「对抗样本」前后分别输入微软、亚马逊人脸比对平台中。
 
最终结果显示,添加「噪音」扰动前,两张图片相似度低,微软、亚马逊平台判定为「不相同」,但添加扰动后,几套系统均错误识别为「相同」,甚至在微软平台前后相似度的变化幅度高达 70% 以上。


检测出人脸识别系统「漏洞」的 RealSafe 人工智能安全平台,是全球首个针对算法模型本身进行安全的检测平台,内置领先的攻防算法模型,旨在为企业用户提供从算法测评到防御升级的整体解决方案。
 
而针对人脸比对系统的攻击测试,是 RealSafe 人工智能安全平台为用户提供的对抗样本攻防在线体验。
 
具体是什么样的效果,可以看这个 Demo 视频:

通过 RealAI 提供的测试工具,只需要上传一张图片作为示例,为原图生成的带有干扰图片即可让各家大厂的人脸识别系统将人物错误地识别为指定的别人。


攻陷所有人脸识别平台

真的能像视频中那样吗?在正式发布之前,我们得到了对 RealSafe 系统进行测试的机会,上手进行了一番体验。首先是用两个人的照片进行原图对比,AI 可以识别出是不同的人:


点击「生成对抗样本」按钮,经过十秒的处理时间,模型就为我们生成了一个基于 C 罗照片的「梅西」对抗样本照片:


对于人类来说,除了人脸部位的多了一些不清晰的扰动之外,经过处理后的图片(上图右)完全不会让我们认错图片上的人。但对于目前的人脸识别算法来说情况就不一样了:


在其他公司的人脸相似度对比模型上,AI 把 C 罗的照片错认为是梅西:「同一个人的可能性极高」。我们尝试了上传梅西的不同照片,相似度应该是 95% 左右。而如果用 C 罗未处理过的照片,或者贝尔的照片,相似度则只有 75% 左右,并显示「同一个人的可能性较低」。

「对抗样本」成为「AI 病毒」

我们测试了国内几家科技巨头的人脸识别模型,对抗样本的「伪装」效果均比较明显。瑞莱智慧的研发人员告诉我们:这种对抗样本同样也可以使亚马逊、微软等人脸识别平台的服务出现严重的识别错误。
 
在人脸解锁手机和支付系统如此普遍的今天,对抗样本方法的进步让我们开始担心财产与隐私安全。在一些需要通过人脸进行身份验证的场景,比如金融远程开户、人脸门禁、酒店入住管理等场景,有意的攻击都有可能做到顶替身份,造成财产、隐私等损失。

即使在应用了活体检测的场景,也有被对抗样本攻击的可能,其实 RealAI 在去年就已通过佩戴一副含有对抗样本图案的眼镜攻破了具备活体检测功能的某些主流品牌手机。

RealAI 表示,这是世界唯一通过 AI 对抗样本技术攻破商用手机人脸解锁的案例。

看来破解 AI 形成的隐患离我们并不远,为避免可能的损失,我们要更加注意对个人信息的保护。例如在一些刷脸支付场景中,在通过人脸验证是否为本人后,进一步需求输入手机号等信息进行二次验证。在深度学习模型普遍脆弱、容易被攻击成功的当下,普通消费者不能只依赖人工智能技术,还需要保持足够的警惕,保护个人信息,不然仍有可能出现身份被盗取等问题。
 
瑞莱智慧表示,经过不断的升级演化,今天的对抗样本攻击不仅仅停留在数字世界,针对物理世界的攻击早已开始出现:在路面上粘贴对抗样本贴纸模仿合并条带误导自动驾驶汽车拐进逆行车道、佩戴对抗样本生成的眼镜破解手机面部解锁、胸前张贴对抗样本贴纸即可实现隐身.……

通过 AI 对抗样本图案躲避 AI 车辆检测。

对抗样本可以导致人工智能系统被攻击和恶意侵扰,产生与预期不符乃至危害性结果,对于人脸识别、自动驾驶等特定领域,可能造成难以挽回的人员和财产损失,对抗样本已经成为人工智能系统可能面临的新型「病毒」。
 
目前以「对抗样本」为代表的算法安全仍是新兴领域,业界对于如何评价算法模型的安全性并没有清楚的定义,并且对抗样本等攻击手段变得愈发复杂。在开源社区、工具包的加持下,高级复杂攻击方法快速增长,相关防御手段的升级却难以跟上。
 
另一方面,对抗样本等算法漏洞检测存在较高的技术壁垒,目前市面上缺乏自动化检测工具,而大部分企业与组织不具备该领域的专业技能来妥善应对日益增长的恶意攻击。在潜在层面上,随着人工智能的大规模应用,算法安全漏洞带来的安全威胁将持续升级。
 
为 AI 时代打造「杀毒软件」
 
当然,RealSafe 还可以帮助人们修复这些漏洞。正如网络安全时代,网络攻击的大规模渗透诞生出杀毒软件,发现计算机潜在病毒威胁,提供一键系统优化、清理垃圾跟漏洞修复等功能。RealAI 团队希望通过 RealSafe 平台打造出人工智能时代的「杀毒软件」,为构建人工智能系统防火墙提供支持。
 
除了对抗样本技术,今天推出的 RealSafe 平台支持另外两大功能模块:模型安全测评和防御解决方案。


模型安全评测主要为用户提供 AI 模型安全性评测服务。用户只需接入所需测评模型的 SDK 或 API 接口,选择平台内置或者自行上传的数据集,平台将基于多种算法生成对抗样本模拟攻击,并综合在不同算法、迭代次数、扰动量大小的攻击下模型效果的变化,给出模型安全评分及详细的测评报告。目前 RealSafe 已支持黑盒查询攻击方法与黑盒迁移攻击方法。

防御解决方案则是为用户提供模型安全性升级服务,RealSafe 平台支持五种去除对抗噪声的通用防御方法,可实现对输入数据的自动去噪处理,破坏攻击者恶意添加的对抗噪声。根据上述的模型安全评测结果,用户可自行选择合适的防御方案,从而达到一键提升模型安全性的目的。
 
瑞莱智慧表示,随着模型攻击手段在不断复杂扩张,RealSafe 平台还将持续提供更加丰富的 AI 防御手段,帮助用户获得实时且自动化的漏洞检测和修复能力。

「零编码」+「可量化」:高效应对算法威胁
 
由 2018 年 7 月成立的瑞莱智慧,是一家孵化自清华大学 AI 研究院的科技公司,它由清华 AI 研究院院长张钹、教授朱军担任首席科学家,田天任 CEO。RealAI 在 AI 安全领域拥有国际领先的技术优势,团队曾率先提出多项攻防算法,相关研究成果曾被图灵奖得主作为代表性方法大幅引用,被主流开源软件 FoolBox、Cleverhans 等收录为标准的对抗攻击算法。

在人工智能领域的国际大赛中,RealAI 团队与清华联合组成的战队曾战胜斯坦福、腾讯安全等世界顶级高校、研究机构获得多项世界冠军。
 
RealAI 表示,本次推出的算法模型安全检测平台,除了可以帮助企业高效应对算法威胁还具备以下两大优势:

  • 组件化、零编码的在线测评:相较于 ART、Foolbox 等开源工具需要自行部署、编写代码,RealSafe 平台采用组件化、零编码的功能设置,免去了重复造轮子的精力与时间消耗,用户只需提供相应的数据即可在线完成评估,极大降低了算法评测的技术难度,学习成本低,无需拥有专业算法能力也可以上手操作。

  • 可视化、可量化的评测结果:为了帮助用户提高对模型安全性的概念,RealSafe 平台采用可量化的形式对安全评测结果进行展示,根据模型在对抗样本攻击下的表现进行评分,评分越高则模型安全性越高。此外,RealSafe 平台提供安全性变化展示,经过防御处理后的安全评分变化以及模型效果变化一目了然。


考虑到当前人脸识别技术应用最为广泛,RealAI 此次推出的 RealSafe 人工智能安全平台主要支持针对人脸比对场景的模型安全评估与检测。未来 RealSafe 平台还将持续迭代,陆续上线针对目标检测、图像分类等应用场景的模型安全检测,旨在通过安全可控的人工智能为更多场景保驾护航。
 
今年 3 月,RealAI 获得了天使+轮的融资,近两轮总额已达到 1 亿元人民币。对于这家公司而言,如何探索技术商业化的道路已成为摆在面前的挑战。这家公司表示将致力于打造安全可控的第三代人工智能,实现安全(Robust)、可扩展(Extendable)、可靠(Assurable)和落地(Landable)的 AI 解决方案。

RealAI 表示,此次推出的安全平台只是研发人员们的一小步尝试,这家公司希望能通过安全可控 AI 赋能行业,向金融领域提供更可靠的大数据风控、反欺诈、营销等解决方案,在工业领域提供生产运维智能决策和智能装备解决方案,在公共安全治理领域提供公共数据安全、网络内容安全等解决方案。

此前在金融领域内,该公司已推出了开箱即用的建模平台 RealBox。其内嵌了 RealAI 自研的贝叶斯深度学习算法。通过贝叶斯算法,该工具实现了对现实世界不确定性的刻画以及可描述变量之间的关系,解决了当前 AI 普遍存在的不可解释的痛点。


文为机器之心报道,转载请联系本公众号获得授权
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
投稿或寻求报道:content @jiqizhixin.com
广告 & 商务合作:bd@jiqizhixin.com
登录查看更多
0

相关内容

对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
165+阅读 · 2020年4月26日
【2020新书】数据科学:十大Python项目,247页pdf
专知会员服务
213+阅读 · 2020年2月21日
【浙江大学】对抗样本生成技术综述
专知会员服务
91+阅读 · 2020年1月6日
【德勤】中国人工智能产业白皮书,68页pdf
专知会员服务
303+阅读 · 2019年12月23日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
揭秘|多伦多大学反人脸识别,身份欺骗成功率达99.5%
机器人大讲堂
6+阅读 · 2018年6月9日
全球最大AI独角兽诞生中国,商汤科技凭什么?
商业周刊中文版
5+阅读 · 2018年4月9日
别@微信团队了,我用Python给自己戴上了圣诞帽!
Arxiv
5+阅读 · 2019年2月28日
Arxiv
4+阅读 · 2018年1月19日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
Top
微信扫码咨询专知VIP会员