Adversarial attacks against commercial black-box speech platforms, including cloud speech APIs and voice control devices, have received little attention until recent years. The current "black-box" attacks all heavily rely on the knowledge of prediction/confidence scores to craft effective adversarial examples, which can be intuitively defended by service providers without returning these messages. In this paper, we propose two novel adversarial attacks in more practical and rigorous scenarios. For commercial cloud speech APIs, we propose Occam, a decision-only black-box adversarial attack, where only final decisions are available to the adversary. In Occam, we formulate the decision-only AE generation as a discontinuous large-scale global optimization problem, and solve it by adaptively decomposing this complicated problem into a set of sub-problems and cooperatively optimizing each one. Our Occam is a one-size-fits-all approach, which achieves 100% success rates of attacks with an average SNR of 14.23dB, on a wide range of popular speech and speaker recognition APIs, including Google, Alibaba, Microsoft, Tencent, iFlytek, and Jingdong, outperforming the state-of-the-art black-box attacks. For commercial voice control devices, we propose NI-Occam, the first non-interactive physical adversarial attack, where the adversary does not need to query the oracle and has no access to its internal information and training data. We combine adversarial attacks with model inversion attacks, and thus generate the physically-effective audio AEs with high transferability without any interaction with target devices. Our experimental results show that NI-Occam can successfully fool Apple Siri, Microsoft Cortana, Google Assistant, iFlytek and Amazon Echo with an average SRoA of 52% and SNR of 9.65dB, shedding light on non-interactive physical attacks against voice control devices.


翻译:对商业黑盒语音平台的Adversarial攻击,包括云式语音API和声音控制装置,直到近些年才受到关注。目前的“黑盒”攻击在很大程度上都依赖于预测/信心评分知识,才能形成有效的对抗性实例,而服务供应商可以直截了当地捍卫这些实例,而不必归还这些信息。在本文中,我们提出两种新颖的对抗性攻击,更实际和严格的情景。对于商业云式言论API而言,我们提议Occam,这是一种决定性的黑盒对抗性攻击,只有对手才能做出最后决定。在奥卡姆,我们把仅决定的AE一代设计成一个不连续的大规模全球优化问题,并且通过适应性地将这一复杂的问题分解成一组子问题,并且通过合作性地优化每例信息。我们的Occam是一种一刀切的方法,通过平均的SNRR(14.23dB)来实现100%的攻击成功率,通过广泛的大众演讲和演讲人称的确认性APIP,包括谷、Alibaba、微软、Tent、IF(IF)直径、直径、直径、直径、直径、直径、直径、直径、直射、直径、直径、直射、直控、直射、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、直方、

0
下载
关闭预览

相关内容

在科学,计算和工程学中,黑盒是一种设备,系统或对象,可以根据其输入和输出(或传输特性)对其进行查看,而无需对其内部工作有任何了解。 它的实现是“不透明的”(黑色)。 几乎任何事物都可以被称为黑盒:晶体管,引擎,算法,人脑,机构或政府。为了使用典型的“黑匣子方法”来分析建模为开放系统的事物,仅考虑刺激/响应的行为,以推断(未知)盒子。 该黑匣子系统的通常表示形式是在该方框中居中的数据流程图。黑盒的对立面是一个内部组件或逻辑可用于检查的系统,通常将其称为白盒(有时也称为“透明盒”或“玻璃盒”)。
专知会员服务
44+阅读 · 2020年10月31日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
人工智能 | AAAI 2019等国际会议信息7条
Call4Papers
5+阅读 · 2018年9月3日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
Arxiv
12+阅读 · 2020年12月10日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
Top
微信扫码咨询专知VIP会员