While a Quantum Approximate Optimization Algorithm (QAOA) is intended to provide a quantum advantage in finding approximate solutions to combinatorial optimization problems, noise in the system is a hurdle in exploiting its full potential. Several error mitigation techniques have been studied to lessen the effect of noise on this algorithm. Recently, Majumdar et al. proposed a Depth First Search (DFS) based method to reduce $n-1$ CNOT gates in the ansatz design of QAOA for finding Max-Cut in a graph G = (V, E), |V| = n. However, this method tends to increase the depth of the circuit, making it more prone to relaxation error. The depth of the circuit is proportional to the height of the DFS tree, which can be $n-1$ in the worst case. In this paper, we propose an $O(\Delta \cdot n^2)$ greedy heuristic algorithm, where $\Delta$ is the maximum degree of the graph, that finds a spanning tree of lower height, thus reducing the overall depth of the circuit while still retaining the $n-1$ reduction in the number of CNOT gates needed in the ansatz. We numerically show that this algorithm achieves nearly 10 times increase in the probability of success for each iteration of QAOA for Max-Cut. We further show that although the average depth of the circuit produced by this heuristic algorithm still grows linearly with n, our algorithm reduces the slope of the linear increase from 1 to 0.11.


翻译:虽然QAOA(QAOA)在寻找组合优化问题的近似解决方案方面提供了量子优势,但系统中的噪音是充分利用其潜力的一个障碍。已经研究了若干减少噪音对算法的影响的减少错误技术。最近,Majumdar等人提议了一个基于深度第一搜索(DFS)的方法,以降低QAOA(QAOA)在asaz 内找到最大G = (V, E), ⁇ V ⁇ = n。然而,这种方法往往会增加电路的深度,使其更容易放松错误。电路的深度与DFF树的高度成正比,最差的情况可能是$-1。在本文中,我们提议一个基于深度第一搜索($(Delta\cdot n%2) 的深度方法,用于在QO = (V, E), ⁇ V ⁇ = = = n。但是,这个方法往往会增加电路的深度,从而降低NC 10 的直径直径,而我们又会减少10 。

0
下载
关闭预览

相关内容

专知会员服务
43+阅读 · 2021年5月26日
专知会员服务
50+阅读 · 2020年12月14日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
65+阅读 · 2020年7月12日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
已删除
将门创投
8+阅读 · 2019年6月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Query Embedding on Hyper-relational Knowledge Graphs
Arxiv
4+阅读 · 2021年6月17日
Type-augmented Relation Prediction in Knowledge Graphs
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Arxiv
4+阅读 · 2019年2月8日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员