直播预告 | 清华大学付祈安:评估图像分类任务中的对抗鲁棒性

2020 年 7 月 17 日 学术头条


「RealCourse直播间」是RealAI打造的学术分享平台,旨在整合RealAI与清华大学人工智能研究院众多青年学者的最新科研成果,重点关注算法鲁棒性、安全性等安全可控人工智能研究方向,通过一场场精彩纷呈的学术分享,传播人工智能领域最前沿的技术理念与发展趋势。本期直播由「RealCourse直播间」与人工智能前沿学生论坛联合发起!



年来,机器学习模型尤其是深度神经网络模型在很多图像分类任务上都得到了让人印象深刻的结果,但是,这些机器学习模型容易受到对抗样本的干扰,即在一张正常的图片上叠加一个人类不宜察觉的小扰动就可以让原本分类正确的机器学习模型产生错误的分类结果。

对抗样本的存在使得机器学习模型难以应用于需要较高安全性的场景,因此 对抗攻防算法及模型鲁棒性 逐渐受到研究者的重视。但目前很多新的防御方法在被提出后很快会被新的攻击算法攻破,攻击算法也类似;同时,现有的很多工作并没有 合理全面地评估攻防算法的性能和模型的鲁棒性

针对该问题,RealAI联合清华大学人工智能研究院于此前推出业界首个人工智能安全平台—RealSafe,该平台能够提供从安全测评到防御加固整体解决方案,可用于发现包括人脸比对等在内的常用AI算法可能出错的极端情形,也能预防潜在的对抗攻击。

7月19日(周日)20:00 ,我们邀请到 清华大学计算机系硕士付祈安 做客直播间,作为RealSafe平台的重要参与者,他将为大家带来 “评估图像分类任务中的对抗鲁棒性” 的主题分享,其中他将对RealSafe平台进行重点介绍。



分享提纲



本次分享,付祈安将重点介绍他在CVPR 2020中的工作:开发针对算法鲁棒性进行基准测试的RealSafe平台,并使用它对典型的攻击算法、防御算法和模型进行了全面系统的实验。

具体内容有:

  • 多种威胁模型下RealSafe针对典型攻击算法、防御算法和模型的大规模的实验;
  • 基于实验结果,用准确率随扰动大小和攻击强度变化的曲线代替常见于之前工作中的点值作为评价鲁棒性的基准等。




嘉宾介绍



付祈安

清华大学计算机系硕士


清华大学计算机系硕士,目前研究方向为深度学习中的鲁棒性问题。


直播地址



本次直播将在RealCourse的官方社群中进行, 扫描下方海报二维码添加小助手回复「Live0719」 ,即可入群观看直播。



SFFAI简介



人工智能前沿学生论坛SFFAI,是由人工智能前沿讲习发起,邀请一线科研人员分享、讨论人工智能各个领域的前沿思想和最新成果的平台。SFFAI目前主要关注机器学习、计算机视觉、自然语言处理等各个人工智能垂直领域及交叉领域的前沿进展,进行学术传播,同时为讲者塑造个人影响力。


支持平台




点击 阅读原文 ,查看更多精彩!
喜欢本篇内容,请 分享、点赞、 在看
登录查看更多
1

相关内容

专知会员服务
63+阅读 · 2020年9月10日
专知会员服务
29+阅读 · 2020年7月31日
【伯克利-Ke Li】学习优化,74页ppt,Learning to Optimize
专知会员服务
40+阅读 · 2020年7月23日
专知会员服务
155+阅读 · 2020年4月21日
【综述】基于图的对抗式攻击和防御,附22页论文下载
专知会员服务
68+阅读 · 2020年3月5日
【NeurIPS2019报告推荐】公平与表示学习—UIUC Sanmi Koyejo教授
大讲堂 | 渐进式神经网络结构搜索
AI研习社
5+阅读 · 2018年9月18日
【回顾】北交大博士:强化学习与策略评估
AI研习社
4+阅读 · 2017年11月11日
Arxiv
19+阅读 · 2019年11月23日
Arxiv
19+阅读 · 2018年5月17日
Arxiv
5+阅读 · 2018年4月17日
Arxiv
6+阅读 · 2018年1月14日
VIP会员
Top
微信扫码咨询专知VIP会员