Quantum classification and hypothesis testing are two tightly related subjects, the main difference being that the former is data driven: how to assign to quantum states $\rho(x)$ the corresponding class $c$ (or hypothesis) is learnt from examples during training, where $x$ can be either tunable experimental parameters or classical data "embedded" into quantum states. Does the model generalize? This is the main question in any data-driven strategy, namely the ability to predict the correct class even of previously unseen states. Here we establish a link between quantum machine learning classification and quantum hypothesis testing (state and channel discrimination) and then show that the accuracy and generalization capability of quantum classifiers depend on the (R\'enyi) mutual informations $I(C{:}Q)$ and $I_2(X{:}Q)$ between the quantum state space $Q$ and the classical parameter space $X$ or class space $C$. Based on the above characterization, we then show how different properties of $Q$ affect classification accuracy and generalization, such as the dimension of the Hilbert space, the amount of noise, and the amount of neglected information from $X$ via, e.g., pooling layers. Moreover, we introduce a quantum version of the Information Bottleneck principle that allows us to explore the various tradeoffs between accuracy and generalization. Finally, in order to check our theoretical predictions, we study the classification of the quantum phases of an Ising spin chain, and we propose the Variational Quantum Information Bottleneck (VQIB) method to optimize quantum embeddings of classical data to favor generalization.


翻译:量子分类和假设测试是两个密切相关的主题,主要区别在于前者是数据驱动的:如何向量子国分配 $\ rho(x)$ 相应级的美元(或假设) 从培训中从实例中学习, 美元可以是可附带试验的参数, 也可以是典型的数据“ 嵌入” 量子国。 模型是否概括? 这是任何数据驱动战略中的主要问题, 即是否有能力预测正确的等级, 即使是先前不为人知的国家 。 我们在这里建立了量子机器学习分类和量子假设测试( 状态和频道歧视) 之间的联系, 然后表明量子分类的精确性和总体水平取决于( enyi) 的相互信息 $( C{ : { } ) 美元和 美元 ( =) 经典数据 Q( Q) 和 基质子 的精确度, 我们从一般交易到 水平 水平 水平 数据, 我们从一般交易到 水平 水平 水平 水平, 我们通过 水平 水平, 我们通过 水平 水平 水平, 我们通过 水平 将 数据 水平 开始 水平 水平 水平, 我们 水平 水平 开始 水平 数据 水平 水平 水平, 我们, 我们 水平 水平 开始 水平 水平 水平 水平, 我们 水平 水平 水平 水平, 我们, 我们 水平 水平 水平 水平 水平, 我们,, 我们, 水平 水平 水平, 我们, 我们,,,, 水平 水平 水平 水平, 我们,, 我们,, 开始 水平 开始, 开始 水平 水平 水平, 我们, 我们, 我们, 我们,, 我们, 水平 水平, 我们, 我们,, 我们,,,,, 水平 水平, 水平 水平 水平 水平 水平 水平 水平 水平, 水平, 我们, 我们, 我们,,,,, 我们,,,, 我们,, 水平 水平 水平 水平 水平 水平 水平

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
专知会员服务
112+阅读 · 2019年12月24日
已删除
将门创投
3+阅读 · 2019年9月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
0+阅读 · 2021年10月7日
Arxiv
2+阅读 · 2021年10月4日
Arxiv
0+阅读 · 2021年10月4日
Arxiv
0+阅读 · 2021年10月3日
Arxiv
0+阅读 · 2021年10月1日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年9月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
相关论文
Arxiv
0+阅读 · 2021年10月7日
Arxiv
2+阅读 · 2021年10月4日
Arxiv
0+阅读 · 2021年10月4日
Arxiv
0+阅读 · 2021年10月3日
Arxiv
0+阅读 · 2021年10月1日
Top
微信扫码咨询专知VIP会员