本期 AI Drive,我们邀请到电子科技大学硕士生章琪泷,为大家在线解读其发表在 ICLR 2022 的最新研究成果。本次报告的主题为
「超越源域的攻击,面向黑盒域制作对抗样本」
。对本期主题感兴趣的小伙伴,4 月 14 日(本周四)晚 7 点,我们准时相约 PaperWeekly 直播间。
直播信息
对抗样本由于他们的可转移性质对深度神经网络构成了严重的安全威胁。目前,大量工作都为提高对抗样本跨模型的可转移性付出了巨大努力。通常来说,这些工作大多假设替代模型与目标模型在同一域训练。然而,在现实中,所部署模型的相关信息不太可能泄露。因此,建立一个更实用的黑盒威胁模型来克服这一局限性并评估部署模型的脆弱性是至关重要的。
在本文中,仅凭 ImageNet 领域的知识,
我们提出了一个 Beyond ImageNet Attack(BIA)来研究对抗样本跨域(未知分类任务)的可转移性。
具体来说,我们利用生成模型来学习对抗扰动生成函数,以破坏输入图像的低级特征。基于这个框架,我们进一步提出两个变体,分别从数据和模型的角度缩小源域和目标域之间的差距。大量的实验结果证明了我们方法的有效性。
Beyond ImageNet Attack: Towards Crafting Adversarial Examples for Black-box Domains
收录会议:
论文链接:
https://arxiv.org/abs/2201.11528
代码链接:
https://github.com/Alibaba-AAIG/Beyond-ImageNet-Attack
演讲提纲
研究背景
现有方法的回顾和分析
本文所提方法
实验结果
嘉宾介绍
章琪泷,电子科技大学三年级在读硕士生,师从宋井宽和高联丽教授。其研究方向为 AI 安全,并在 CVPR、ECCV、 ICLR、 IJCAI 等 AI 相关顶级会议发表学术论文多篇,曾受邀担任 CVPR、ECCV、ICLR 等会议审稿人。
直播地址
本次直播将在 PaperWeekly 视频号和 B 站直播间进行,
扫描下方海报二维码
或点击
阅读原文
即可免费观看。
点击下方 PaperWeekly 视频号预约按钮,第一时间获取开播提醒。
https://live.bilibili.com/14884511
合作伙伴
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧