We establish an improved classical algorithm for solving linear systems in a model analogous to the QRAM that is used by quantum linear solvers. Precisely, for the linear system $A\x = \b$, we show that there is a classical algorithm that outputs a data structure for $\x$ allowing sampling and querying to the entries, where $\x$ is such that $\|\x - A^{-1}\b\|\leq \epsilon \|A^{-1}\b\|$. This output can be viewed as a classical analogue to the output of quantum linear solvers. The complexity of our algorithm is $\widetilde{O}(\kappa_F^6 \kappa^2/\epsilon^2 )$, where $\kappa_F = \|A\|_F\|A^{-1}\|$ and $\kappa = \|A\|\|A^{-1}\|$. This improves the previous best algorithm [Gily{\'e}n, Song and Tang, arXiv:2009.07268] of complexity $\widetilde{O}(\kappa_F^6 \kappa^6/\epsilon^4)$. Our algorithm is based on the randomized Kaczmarz method, which is a particular case of stochastic gradient descent. We also find that when $A$ is row sparse, this method already returns an approximate solution $\x$ in time $\widetilde{O}(\kappa_F^2)$, while the best quantum algorithm known returns $\ket{\x}$ in time $\widetilde{O}(\kappa_F)$ when $A$ is stored in the QRAM data structure. As a result, assuming access to QRAM and if $A$ is row sparse, the speedup based on current quantum algorithms is quadratic.


翻译:我们在一个类似于量子线性求解者使用的 QRAM 模型中,为解析线性系统建立一个更好的经典算法。 准确地说, 对于线性系统来说, $A\x=\\\\\\\\\\\b\\b\\\\\\\\B$, 我们显示有一个典型算法, 输出出一个允许取样和查询条目的 $x 的数据结构, $xx - A\\-1\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ \ \ \ \ \ \ \ \ \\\\\ \ \ \\ \ \ \ \ \ \ \ \ 。 这个输出可以改进以前的算法, 美元( =\\\\\\\\\\\\\\\\\\ lix lixxxxxxxx 美元) 美元, 美元, 美元, 当我们现在的解解解 =\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ rxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx, 当我们的

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
【新书】Python编程基础,669页pdf
专知会员服务
193+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
Arxiv
0+阅读 · 2021年5月11日
Arxiv
0+阅读 · 2021年5月7日
Arxiv
0+阅读 · 2021年5月6日
Arxiv
0+阅读 · 2021年5月4日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
9+阅读 · 2018年12月28日
Faster R-CNN
数据挖掘入门与实战
4+阅读 · 2018年4月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
Top
微信扫码咨询专知VIP会员