Variational quantum circuits are used in quantum machine learning and variational quantum simulation tasks. Designing good variational circuits or predicting how well they perform for given learning or optimization tasks is still unclear. Here we discuss these problems, analyzing variational quantum circuits using the theory of neural tangent kernels. We define quantum neural tangent kernels, and derive dynamical equations for their associated loss function in optimization and learning tasks. We analytically solve the dynamics in the frozen limit, or lazy training regime, where variational angles change slowly and a linear perturbation is good enough. We extend the analysis to a dynamical setting, including quadratic corrections in the variational angles. We then consider hybrid quantum-classical architecture and define a large-width limit for hybrid kernels, showing that a hybrid quantum-classical neural network can be approximately Gaussian. The results presented here show limits for which analytical understandings of the training dynamics for variational quantum circuits, used for quantum machine learning and optimization problems, are possible. These analytical results are supported by numerical simulations of quantum machine learning experiments.


翻译:量子机器学习和变量模拟任务中使用了变化量子电路。 设计好的变异电路或预测它们对于特定学习或优化任务的表现如何仍然不清楚。 我们在这里讨论这些问题, 利用神经相近内核理论分析变异量子电路。 我们定义量子神经相向内核, 在优化和学习任务中为其相关的损失函数得出动态方程式。 我们分析解了冻结极限或懒惰训练制度中的动态, 在那里, 变形角度变化缓慢, 线性扰动足够好。 我们把分析扩大到动态环境, 包括变形角度的二次校正。 我们然后考虑混合量子级结构, 并为混合内核内核定出一个大边缘, 表明混合量子神经网络在优化和学习任务中可以大约高。 我们在此展示的结果显示, 用于量子机学习和优化问题的变量量量子电路的培训动力分析理解是可能的。 这些分析结果得到量子机器实验数字模拟的支持。

1
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
专知会员服务
53+阅读 · 2019年12月22日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
57+阅读 · 2019年11月10日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2022年1月14日
Arxiv
2+阅读 · 2022年1月13日
Arxiv
13+阅读 · 2021年7月20日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
4+阅读 · 2018年4月30日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2022年1月14日
Arxiv
2+阅读 · 2022年1月13日
Arxiv
13+阅读 · 2021年7月20日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
4+阅读 · 2018年4月30日
Top
微信扫码咨询专知VIP会员