AI 科技评论按:人脸识别技术已经进入了大规模应用,个人数据的隐私问题也得到越来越多关注,针对隐私保护、躲避和攻击人脸识别系统的研究也陆续出现。这其中,有篡改输入人脸识别系统的图像,让它无法识别图中存在人脸的,比如多伦多大学的《Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization》。也有 CMU 设计的特殊眼镜,佩戴以后,即便经过监控设备的采集,仍然无法识别到图像中存在人脸,或者会被识别为另一个人;而且这种装饰方法算不上夸张,不那么容易引起别人怀疑。(论文《Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition》)
隐藏身份的「换脸」
近日又出现了一篇新的论文,来自挪威科技大学的《DeepPrivacy: A Generative Adversarial Network for Face Anonymization》(arxiv.org/abs/1909.04538
),从新的、更有挑战的角度欺骗人脸识别系统:在不改变原来的数据分布的前提下把人脸匿名化,更通俗地说就是模型的输出还是一张逼真的人脸,姿态和背景也和原图相同,但完全无法识别出原来的人脸身份,也就是「换了一张脸」。作者们提出的模型 DeepPrivacy 是一个条件生成式对抗网络(conditional GAN),生成器能够以原有的背景以及稀疏的动作标注生成逼真的匿名(其它身份的)人脸。生成器的架构是一个 U-net,用逐步扩大图像尺寸的方式最终生成 128x128 尺寸的图像。为了避免向这个模型泄露个人信息,按照作者们的设计,这个模型的输入就直接是经过随机噪声遮挡的人脸,模型完全观察不到任何原有面部信息。不过,为了保证生成的质量以及动作的一致性,作者们仍然需要两组简单的图像标注结果:圈出了面部位置的边界框,以及(与 Mask R-CNN 中相同的)标出了耳朵、眼睛、鼻子、肩膀一共 7 个关键点的稀疏姿态估计值。根据作者们的测试,经过他们的模型匿名化的人脸仍然保持了接近于原图的人脸可识别性,普通的人脸识别模型对于匿名化后的图像,识别出人脸的平均准确率只相对下降了 0.7%。而人脸含有的身份信息自然是 100% 不重合的。