题目: Quantum Adversarial Machine Learning

摘要: 对抗性机器学习是一个新兴的研究领域,主要研究机器学习方法在对抗性环境中的脆弱性,并开发相应的技术,使学习对对抗性操作具有鲁棒性。它在各种机器学习应用中起着至关重要的作用,近年来引起了不同社区的极大关注。本文探讨了量子机器学习中不同的对抗情境。我们发现,与基于经典神经网络的传统分类器类似,量子学习系统同样容易受到精心设计的对抗性示例的攻击,而与输入数据是经典的还是量子的无关。特别是,我们发现,通过对原始合法样本添加不可察觉的扰动而获得的对抗性示例,可以最终欺骗达到接近最新精度的量子分类器。这在不同场景下的量子对抗学习中得到了明确的证明,包括对现实生活中的图像(如数据集MNIST中的手写数字图像)进行分类,对物质的学习阶段(如铁磁/顺磁有序和对称保护拓扑相)进行分类,以及对量子数据进行分类。此外,我们还指出,根据手头的对抗性例子的信息,可以设计出实用的防御策略来对抗多种不同的攻击。我们的研究结果揭示了量子机器学习系统对各种扰动的显著脆弱性,这不仅从理论上揭示了机器学习与量子物理学之间的联系,而且为基于近期和未来量子技术的量子分类器的实际应用提供了有价值的指导。

成为VIP会员查看完整内容
37

相关内容

对抗机器学习(Adverserial Machine Learning)作为机器学习研究中的安全细分方向,在一定程度上保证模型的安全性
小样本学习(Few-shot Learning)综述
机器之心
18+阅读 · 2019年4月1日
AI新方向:对抗攻击
网易智能菌
10+阅读 · 2018年11月14日
Machine Learning:十大机器学习算法
开源中国
20+阅读 · 2018年3月1日
Arxiv
22+阅读 · 2019年11月24日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
8+阅读 · 2018年5月21日
Arxiv
4+阅读 · 2018年4月30日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员