新智元报道
编辑:Joey 好困 袁榭
2022年6月28日,FBI发布公告,提醒公众警惕在远程求职面试中使用Deepfake技术假扮成他人的情况。
这波啊,是真的「FBI Warning」(手动狗头)
你远程面试的同事,可能是个假人
公告指出,FBI 互联网犯罪投诉中心 (IC3)最近收到的用Deepfake和「被盗个人身份信息」 (PII) 申请各种远程工作和在家工作职位的投诉有所增加。
其内容包括经Deepfake处理过的视频、图像或录音,虚构事实,以假乱真。
而且按FBI公告,现在的诈骗犯工作也很用心,大都搞计算机技术业界的。
FBI表示,这些诈骗投诉与远程技术职位有关,包括信息技术和计算机编程、数据库和与软件相关的工作岗位。
这些职位将允许成功过关的候选人访问目标企业的敏感数据,包括「客户 PII(个人身份信息)、财务数据、公司 IT 数据库和/或专有信息」。
妥妥的信息诈骗了属于是。
此前,早在2019年,美国国土安全部就对Deepfake技术的安全性发表质疑,称「使用该技术骚扰或伤害他人利益的现象应当引起公众重视」。
而远程面试中存在的欺骗行为早已经不是啥新鲜事了。
2020年,就有领英的一位招聘人员曝出面试者「借助外部设备换脸」。
读者也许会问:这是图啥啊?费老鼻子劲,用诈骗手法骗到远程在家办公的软件开发岗位,未必诈骗犯也要来比比谁写代码更卷?
哪能呢,诈骗业界要赚的是大量快钱。
要是诈骗犯成功应聘了,为了新员工远程在家办公,是不是要给公司内部邮箱号、公司内网登录权限、公司基础技术手册这些材料?
有了这些数据,不管是转卖换钱还是自己动手偷钱,大小都能赚一笔。要是在受害企业内网里种下后门,还可以长做长有。
2022年5月,还有面试官发现有北韩人冒充美国公民面试一些加密货币和Web3公司。诈骗业结合炒币再结合谍中谍,真是好刺激。
另外,还衍生出来一个帮助他人用Deepfake等技术找到工作的业务。
果然有需求就会有市场,二阶服务都有了。
诈骗破解:能,但不稳定
但Deepfake换脸并非完美无瑕,FBI官方给出了一些区分真人和Deepfake换脸的技巧,包括异常眨眼、皮肤或头发周围不自然的纹理与视焦,以及打光异常。
FBI技术官员称,「在这些面试中,被采访者在镜头前的动作和嘴唇运动,并不完全与说话者发出的声音相协调。有时,咳嗽、打喷嚏或其他发声动作,会与视觉呈现的内容不一致」。
这首先是因为,当前的 Deepfakes 难以为面部动态表情制作高置信度动画,导致视频中的人从不眨眼,或者眨眼过于频繁或不自然。
这种视频持续10秒就很惹人怀疑了,要面试全程一点破绽不露,难度颇大。
其次是打光会看起来不自然。通常,Deepfake算法会保留用作假视频源模型的视频短片段的光照,这与目标视频中的匹配不佳。
还有,就是最先提到的,音频可能看起来与假人图像不匹配。特别是如果视频是伪造的、但原始音频没有经过仔细处理的话。困扰影视业界百年的「对不上口型」难题,拿算法也无法根治。
不过,分辨Deepfake视频的技术尚未成熟。
总部位于阿姆斯特丹的威胁情报公司 Sensity 的一份报告发现,反Deepfake的判读算法与软件有86%的几率将Deepfake处理过的视频认定为真。
2022年3月卡内基梅隆大学的研究,将市面上各种反Deepfake技术产品的算法和硬件基础对比了下,发现准确度在30%-97%之间,浮动太大。
所以FBI在公告内文也无真正的万灵良策对付,只有呼吁广大科技企业作为潜在受害者,多细心核查、多留神注意。
Deepfake换头术
众所周知,Deepfake就是利用生成对抗网络(GAN)强大的图像生成能力,将任意的现有图像和视频组合并叠加到源图像和视频上。
通过向机器学习模型输入数千张目标图像,Deepfake算法可以了解一个人面部的细节。有了足够的训练数据,算法就能预测出那个人的脸在模仿别人的表情时会是什么样子。
经过多年的发展,现在的Deepfake技术已经发展到了毫无违和感的「实时换脸」,而且门槛极低。
比如现在市面上十分流行的「DeepFaceLive」软件。
一键安装,新手友好,换脸后还丝毫看不出破绽。
参考资料:
https://techcrunch.com/2022/06/28/this-coworker-does-not-exist-fbi-warns-of-deepfakes-interviewing-for-tech-jobs/