We develop Hybrid Monte Carlo (HMC) algorithms for constrained Hamiltonian systems of gauge- Higgs models and introduce a new observable for the constraint effective Higgs potential. We use an extension of the so-called Rattle algorithm to general Hamiltonians for constrained systems, which we adapt to the 4D Abelian-Higgs model and the 5D SU(2) gauge theory on the torus and on the orbifold. The derivative of the potential is measured via the expectation value of the Lagrange multiplier for the constraint condition and allows a much more precise determination of the effective potential than conventional histogram methods. With the new method, we can access the potential over the full domain of the Higgs variable, while the histogram method is restricted to a short region around the expectation value of the Higgs field in unconstrained simulations, and the statistical precision does not deteriorate when the volume is increased. We further verify our results by comparing to the one-loop Higgs potential of the 4D Abelian-Higgs model in unitary gauge and find good agreement. To our knowledge, this is the first time this problem has been addressed for theories with gauge fields. The algorithm can also be used in four dimensions to study finite temperature and density transitions via effective Polyakov loop actions.


翻译:我们为限制的汉密尔顿测量-希格斯模型系统开发了蒙特卡洛混合算法(HMC),并引入了一种新的可观察到的抑制性有效Higgs潜力。我们用所谓的拉托尔算法(Rattle算法)向一般汉密尔顿人推广了受限制系统的普通汉密尔顿算法(我们根据4D Abel-希格斯模型和5D SU(2) SU(2) 测算理论对托鲁斯和折叠体进行了调整)。这种潜力的衍生物是通过限制条件拉格朗格乘数的预期值测量的,从而能够比常规直方图方法更精确地确定有效潜力。根据我们的知识,我们可以在希格斯变量变量的全域上获取潜力,而其直方法方法则仅限于一个短小区域,在不受限制的模拟中围绕希格斯场的预期值进行调整,而在数量增加时统计精确度不会下降。我们进一步验证了我们的结果,将4D Abelian-希格斯模型在统一测算仪中的一loop Higs潜力进行比较,并找到良好的协议。根据我们的知识,这是第一次在通过测算法的模型中,这是用来进行温度变温的模型中采用4的模型的模型操作。

0
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关VIP内容
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
149+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员