NeurIPS 2022 | 马里兰、北大等机构提出量子算法用于采样对数凹分布和估计归一化常数

2022 年 10 月 14 日 机器之心

机器之心专栏

北京大学前沿计算研究中心
本文是 NeurIPS 2022 入选论文《Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants》的解读。该方法对数凹采样(log-concave sampling)在机器学习、物理、统计等领域有着诸多应用。

对数凹采样(log-concave sampling)在机器学习、物理、统计等领域有着诸多应用。本文基于朗之万扩散(Langevin diffusion)设计了新的量子算法,用于采样对数凹分布和估计归一化常数,相比最好的经典算法对于精度(ε),维度(d),条件数(κ)等参数达到了多项式级加速。



论文地址:https://arxiv.org/abs/2210.06539


本文作者包括:Andrew M. Childs(马里兰大学),李彤阳(北京大学),刘锦鹏(加州大学伯克利分校西蒙斯研究所),王春昊(宾州州立大学)和张睿哲(德州大学奥斯汀分校)。


问题介绍


从给定的分布函数采样是一个基础的计算问题。例如,在统计中,样本可以确定置信区间或探索后验分布。在机器学习中,样本用于回归和训练监督学习模型。在优化中,来自精心挑选的样本分布可以产生接近局部甚至全局最优的点。本文考虑的问题是对数凹采样(log-concave sampling),这个问题涵盖了许多实际应用例子,例如多元高斯分布和指数分布。与之相关的一个问题是估计对数凹分布的归一化常(normalizing constant),这个问题也有许多应用,例如配分函数(partition function)的估计[2]。更多相关工作见参考文献[3, 4, 5, 6]。

问题模型


给定一个凸函数   ,且   是   smooth 和   convex 的。我们定义条件数   。我们希望从分布函数   进行采样,这里   是正则化常数。给定   ,

  1. 对数凹采样:输出一个随机变量满足分布   ,使得   ;
  2. 归一化常数估计:输出一个随机变量   ,使得以至少   的概率满足   。

主要贡献


我们设计了新的量子算法,对于采样对数凹分布和估计正则化常数两个问题,对比经典算法在复杂度上实现了多项式级加速。
定理 1(对数凹采样)给定一个对数凹分布   ,存在量子算法输出一个随机变量满足分布   ,使得:

  •    ,这里   是 Wasserstein 2-范数,对于量子访问 oracle 的查询复杂度为   ;或
  •    ,这里   是全变差距离(total-variation distance),对于量子梯度 oracle 的查询复杂度为   ;若初始分布满足热启动条件,则复杂度为   。

定理 2(归一化常数估计)存在量子算法输出一个随机变量   ,使得以至少   的概率满足   ,

  • 对于量子访问 oracle 的查询复杂度为   ;或
  • 对于量子梯度 oracle 的查询复杂度为   ;若有一个热的初始概率分布(warm start),则复杂度为   。

另外,这个任务的量子查询复杂度的下界是   。

我们在表1和表2总结了我们的结果和先前经典算法复杂度的对比。


技术改进


我们开发了一种系统的方法来研究量子游走混合(quantum walk mixing)的复杂度,并揭示了对于任何可逆的经典马尔可夫链,只要初始分布满足热启动条件,我们就可以获得混合时间(mixing time)的平方加速。特别地,我们将量子行走和量子退火(quantum annealing)应用于朗之万动力学并实现多项式量子加速。下面简单介绍我们的技术贡献。

1. 量子模拟退火(quantum simulated annealing)。我们用于估计归一化常数的量子算法结合了量子模拟退火框架和量子平均值估计算法。对于每种类型,根据朗之万动力学(随机游走),我们构建了相应的量子游走。重要的是,随机游走的谱间隙在相应的量子游走的相位间隙中被“放大”为原先的平方。这让在给定足够好的初始状态的情形,我们使用类似 Grover 算法的过程来产生稳定分布状态。在退火框架中,这个初始状态就是前一个马尔可夫链的稳定分布状态。

2. 有效谱间隙(effective spectral gap)。我们展示了如何利用热启动的初始分布来实现量子加速用于采样。即使谱间隙很小,热启动也会导致更快的混合。在量子算法中,我们将“有效谱间隙”的概念推广到我们更一般的采样问题。我们表明使用有界热启动参数,量子算法可以在混合时间上实现平方加速。通过将采样问题视为只有一个马尔可夫链的模拟退火过程,通过分析有效谱间隙,我们证明了量子算法实现了平方加速。

3. 量子梯度估计(quantum gradient estimation)。我们将 Jordan 的量子梯度算法应用于我们的量子算法,并给出严格的证明来限制由于梯度估计误差引起的采样误差。

参考文献


[1] Andrew M. Childs, Tongyang Li, Jin-Peng Liu, Chunhao Wang, and Ruizhe Zhang, "Quantum Algorithms for Sampling Log-Concave Distributions and Estimating Normalizing Constants," to appear in NeurIPS 2022.

[2] Rong Ge, Holden Lee, and Jianfeng Lu, "Estimating normalizing constants for log-concave distributions: Algorithms and lower bounds," STOC 2020.

[3] Xiang Cheng, Niladri S. Chatterji, Peter L. Bartlett, and Michael I. Jordan, "Underdamped langevin mcmc: A non-asymptotic analysis," COLT 2018.

[4] Yin Tat Lee, Ruoqi Shen, and Kevin Tian, "Logsmooth gradient concentration and tighter runtimes for metropolized Hamiltonian Monte Carlo," COLT 2020.

[5] Ruoqi Shen and Yin Tat Lee, "The randomized midpoint method for log-concave sampling," NeurIPS 2019.

[6] Keru Wu, Scott Schmidler, and Yuansi Chen, "Minimax mixing time of the Metropolis-adjusted Langevin algorithm for log-concave sampling," 2021, arXiv:2109.13055.



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

7篇ICLR 2022杰出论文奖出炉,清华朱军教授课题组摘获
专知会员服务
29+阅读 · 2022年4月22日
【Yoshua Bengio】生成式流网络,Generative Flow Networks
专知会员服务
31+阅读 · 2022年3月19日
【TKDE2022】学习正则化噪声对比估计的鲁棒网络嵌入
专知会员服务
11+阅读 · 2022年2月12日
【NeurIPS 2020】生成对抗性模仿学习的f-Divergence
专知会员服务
25+阅读 · 2020年10月9日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
理论到应用,朱军教授带团队解读扩散概率模型
机器之心
2+阅读 · 2022年11月22日
从多篇论文看扩散模型在文本生成领域的应用
PaperWeekly
0+阅读 · 2022年10月20日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
【重磅】61篇NIPS2019深度强化学习论文及部分解读
机器学习算法与Python学习
10+阅读 · 2019年9月14日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月25日
Arxiv
0+阅读 · 2022年11月24日
Arxiv
14+阅读 · 2022年10月15日
VIP会员
相关VIP内容
相关资讯
理论到应用,朱军教授带团队解读扩散概率模型
机器之心
2+阅读 · 2022年11月22日
从多篇论文看扩散模型在文本生成领域的应用
PaperWeekly
0+阅读 · 2022年10月20日
生成扩散模型漫谈:最优扩散方差估计(下)
PaperWeekly
0+阅读 · 2022年10月10日
生成扩散模型漫谈:最优扩散方差估计(上)
PaperWeekly
0+阅读 · 2022年9月25日
生成扩散模型漫谈:DDPM = 贝叶斯 + 去噪
PaperWeekly
1+阅读 · 2022年7月24日
【重磅】61篇NIPS2019深度强化学习论文及部分解读
机器学习算法与Python学习
10+阅读 · 2019年9月14日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员