近年来,机器学习模型尤其是深度神经网络模型在很多图像分类任务上都得到了让人印象深刻的结果,但是,这些机器学习模型容易受到对抗样本的干扰,即在一张正常的图片上叠加一个人类不宜察觉的小扰动就可以让原本分类正确的机器学习模型产生错误的分类结果。
对抗样本的存在使得机器学习模型难以应用于需要较高安全性的场景,因此对抗攻防算法及模型鲁棒性逐渐受到研究者的重视。但目前很多新的防御方法在被提出后很快会被新的攻击算法攻破,攻击算法也类似;同时,现有的很多工作并没有合理全面地评估攻防算法的性能和模型的鲁棒性。
针对该问题,RealAI联合清华大学人工智能研究院于此前推出业界首个人工智能安全平台—RealSafe,该平台能够提供从安全测评到防御加固整体解决方案,可用于发现包括人脸比对等在内的常用AI算法可能出错的极端情形,也能预防潜在的对抗攻击。
7月19日(周日)20:00,我们邀请到清华大学计算机系硕士付祈安做客直播间,作为RealSafe平台的重要参与者,他将为大家带来“评估图像分类任务中的对抗鲁棒性”的主题分享,其中他将对RealSafe平台进行重点介绍。
分享提纲
本次分享,付祈安将重点介绍他在CVPR 2020中的工作:开发针对算法鲁棒性进行基准测试的RealSafe平台,并使用它对典型的攻击算法、防御算法和模型进行了全面系统的实验。
具体内容有:
多种威胁模型下RealSafe针对典型攻击算法、防御算法和模型的大规模的实验;
基于实验结果,用准确率随扰动大小和攻击强度变化的曲线代替常见于之前工作中的点值作为评价鲁棒性的基准等。
付祈安
清华大学计算机系硕士
清华大学计算机系硕士,目前研究方向为深度学习中的鲁棒性问题。
直播地址
本次直播将在RealCourse的官方社群中进行,扫描下方海报二维码添加小助手回复「Live0719」,即可入群观看直播。
——END——