KDD 2022 | 火山语音提出“无中生有式”对抗语音攻击的创新方案

2022 年 8 月 18 日 PaperWeekly



日前,被誉为数据挖掘领域历史最悠久、规模最大的国际顶级学术会议 ACM SIGKDD(国际数据挖掘与知识发现大会,KDD)正于美国华盛顿召开。会上,火山语音多篇论文被 KDD 2022 Research track 接收并发表,同时创新性提出基于语音合成来有效攻击语音识别系统 (Audio Adversarial Attack) 的新技术路径,用于高效并准确发现语音安全领域的新漏洞。 

伴随机器学习在语音识别上的技术突破,形式多样的语音助手已成为人们日常生活中必不可少的工具,尤其在一些特定场景下,语音助手可以通过识别语义信息帮助人们完成例如购物、转账、缴费、邮件处理等简单动作,便利正逐渐渗透到生活的方方面面。 

但据近些年的研究表明:由于神经网络的冗余特性可以让攻击者在输入中加入人类无法识别的微小扰动,从而误导原本训练好的模型,甚至可以给出攻击者想要获得的输出结果,着实有些惊悚,例如:



明明听上去是:Send a greeting email to Tom?

但经过语音识别系统之后的输出竟然是“Transfer one million dollars to Jerry.” 

人们不禁灵魂发问,语音识别究竟还能否被信任? 

不可否认,这种安全隐患正逐渐成为限制语音识别系统大规模应用的关键因素之一,所以研究如何设计高效的攻击方案发现语音识别系统的弱点和漏洞,进而缓解消除上述语音安全隐患,已成为学术界和工业界共同关注的热点问题。



基于此,火山语音经文献调研发现:现有的语音攻击主要源于一种良性语音依赖假设(上述图 a),即 Audio dependent attack,这种假设要求对抗语音样本 (Adversarial audio) 是基于已有的干净语音 (Benign audio) 上添加扰动产生。但在现实场景中,这种干净语音有可能不存在(比方说,说话人可能根本没有发出声音)或者无法包含特定的语义信息(例如,说话人在交谈中没有说出某句话),如果遭遇上述情况,现有的方案将难以被应用:对已有干净语音的依赖性极大限制了语音攻击的广泛性,造成了判断的不准确。 

对此火山语音团队提出了一种全新的“无中生有式”对抗语音攻击方案(上述图b),所谓“无中生有”是指不再依赖已有的一段干净语音,而是采用语音合成模型直接生成包含特定语义信息的语音对抗样本,避免对干净语音 (Benign audio) 的依赖,改变过去通过“已有”来判断的思路,进而降低安全漏洞的误判率。 目前该方案的介绍论文已被 KDD 2022 接收并发表。



论文标题:

Synthesising Audio Adversarial Examples for Automatic Speech Recognition

文章链接:

https://dl.acm.org/doi/10.1145/3534678.3539268




方法概述

如图所示,火山语音团队提出的 Speech Synthesising Attack (SSA),可以合成文首所示包含“Send a greeting email to Tom”的语音,同时欺骗 ASR 系统翻译为欺骗目标“Transfer one million dollars to Jerry”。如果要实现这样一个挑战性任务,两个重要的条件需要同时被考虑到,分别是:ASR 系统需要最终转录成任意设定的欺骗目标,以及合成语音需要足够自然,让人类无法轻易觉察到该语音为对抗攻击样本。


为此团队引入基于 Conditional Variational Auto-Encoder 的 VITS 模型作为语音合成模块,通过优化 Audio Style Vector z 从而达成以上两个重要前提,具体的 loss 如公式所示:


为达成条件一,团队使用 Connectionist Temporal Classification (CTC) loss 来迫使 ASR 系统输出设定的目标文本 (target text)。为达成条件二,考虑到 VITS 模型训练时 z 服从标准高斯分布,对 z 做出如下约束:


为了使对抗语音样本合成更加高效,火山语音团队还提出了一种 Adaptive Sign Gradient Descent 的优化策略,整体算法流程如下图所示:





实验结果分析

火山语音团队在 Audio Mnist、CommonVoice 以及 LibriSpeech 三个数据集上分别对算法进行了验证。实验结果(如下表所示)显示:相比之前的语音对抗攻击算法,新范式在攻击成功率 (Success rate) 上表现出显著优势,已经达到过去方法的两倍左右。


同时团队还分析了此种办法带来优势的原因,图 b 为传统方法在一段干净语音(图 a)上加载噪声的攻击方式。可以看出,噪声的加噪受限于原始语音波形,但基于 SSA 产生的语音对抗样本,虽然包含的语义信息与图 a&b 一致,但对比之下波形差异很大,这说明 SSA 在产生对抗语音样本时相较于已有方法,能够更加直观发现安全漏洞不易被误导,预期将会成为一种发现语音识别系统安全漏洞的方案被广泛采用。

除上述论文外,火山语音团队推出的另外一篇论文“重要性优先的策略蒸馏” (Importance Prioritized Policy Distillation) 也成功被 KDD 2022 接收并发表。



论文标题:

Importance Prioritized Policy Distillation

文章链接:

https://dl.acm.org/doi/10.1145/3534678.3539266
该论文主要解决了强化学习模型蒸馏过程中 Data bias 问题。在传统的策略蒸馏 (Policy distillation) 方法中,每一个 Frame (State-Action pair, 状态&动作组合) 对于学生策略 (Student policy) 的重要性在训练中是被假设为均匀的。然而在强化学习任务中,每个 Frame 上的 Action 选择实际上是对应着不一样的奖励 (Reward)。 

为了自适应的根据 Reward 收益进行 Policy Distillation 训练,火山语音团队提出了一种基于香农熵 (Shannon Entropy) 对强化学习任务 Frame importance 进行估计的方法,并基于 Atari 游戏任务验证了该方法在策略蒸馏以及压缩 (Policy compression) 任务上的有效性。这种基于重要性优先的策略蒸馏方法将会更好地服务于强化学习模型在部署时的模型压缩任务,从而助力在各个强化学习场景下的实际落地。 

火山语音,作为字节跳动 AI Lab Speech & Audio 智能语音与音频团队,长期以来面向字节跳动内部各业务线以及火山引擎 ToB 行业与创新场景,提供全球领先的语音 AI 技术能力以及卓越的全栈语音产品解决方案。目前团队的语音识别和语音合成覆盖了多种语言和方言,多篇论文入选各类 AI 顶级会议,技术能力已成功应用到抖音、剪映、番茄小说等多款产品上,并通过火山引擎开放给外部企业。


🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



登录查看更多
0

相关内容

【2022新书】机器学习网络安全:深度学习解决方案
专知会员服务
87+阅读 · 2022年10月3日
深度对抗视觉生成综述
专知会员服务
32+阅读 · 2021年12月29日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
30+阅读 · 2020年9月4日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
39+阅读 · 2020年8月25日
专知会员服务
29+阅读 · 2020年7月31日
视频会议一体机的技术实践和发展趋势
InfoQ
0+阅读 · 2022年6月22日
如何亿点点降低语音识别跨领域、跨语种迁移难度?
微软研究院AI头条
0+阅读 · 2022年3月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
1+阅读 · 2022年11月23日
Arxiv
19+阅读 · 2022年10月6日
GeomCA: Geometric Evaluation of Data Representations
Arxiv
11+阅读 · 2021年5月26日
VIP会员
相关VIP内容
【2022新书】机器学习网络安全:深度学习解决方案
专知会员服务
87+阅读 · 2022年10月3日
深度对抗视觉生成综述
专知会员服务
32+阅读 · 2021年12月29日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
30+阅读 · 2020年9月4日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
39+阅读 · 2020年8月25日
专知会员服务
29+阅读 · 2020年7月31日
相关基金
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员