Quantum machine learning is an emerging field at the intersection of machine learning and quantum computing. Classical cross entropy plays a central role in machine learning. We define its quantum generalization, the quantum cross entropy, prove its lower bounds, and investigate its relation to quantum fidelity. In the classical case, minimizing cross entropy is equivalent to maximizing likelihood. In the quantum case, when the quantum cross entropy is constructed from quantum data undisturbed by quantum measurements, this relation holds. Classical cross entropy is equal to negative log-likelihood. When we obtain quantum cross entropy through empirical density matrix based on measurement outcomes, the quantum cross entropy is lower-bounded by negative log-likelihood. These two different scenarios illustrate the information loss when making quantum measurements. We conclude that to achieve the goal of full quantum machine learning, it is crucial to utilize the deferred measurement principle.


翻译:量子机器的学习是机器学习和量子计算交汇处的一个新兴领域。 经典的跨子昆虫在机器学习中发挥着核心作用。 我们定义了它的量子概括性, 量子交叉昆虫, 证明了它的下界, 并调查它与量子忠实性的关系。 在古典案例中, 将量子交叉昆虫的最小化相当于可能性最大化。 在量子案例中, 当量子交叉性从量子测量未受量子测量干扰的量子数据中构建时, 这种关系就保持了下去。 典型的跨子昆虫与负日志相似性相等。 当我们通过测量结果的实验密度矩阵获得量子交叉酶时, 量子交叉昆虫被负日志相似性缩小了。 这两个不同的假设在进行量子测量时说明了信息损失。 我们的结论是,为了实现量子机器全面学习的目标, 利用推迟的测量原则至关重要。

0
下载
关闭预览

相关内容

交叉熵(Cross Entropy)是Shannon信息论中一个重要概念,主要用于度量两个概率分布间的差异性信息。语言模型的性能通常用交叉熵和复杂度(perplexity)来衡量。交叉熵的意义是用该模型对文本识别的难度,或者从压缩的角度来看,每个词平均要用几个位来编码。
专知会员服务
41+阅读 · 2020年12月18日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
一份简单《图神经网络》教程,28页ppt
专知会员服务
120+阅读 · 2020年8月2日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】深度学习时序处理文献列表
机器学习研究会
7+阅读 · 2017年11月29日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Arxiv
1+阅读 · 2021年10月20日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Learning to Importance Sample in Primary Sample Space
Arxiv
4+阅读 · 2018年4月30日
VIP会员
Top
微信扫码咨询专知VIP会员