High-quality, large-scale datasets have played a crucial role in the development and success of classical machine learning. Quantum Machine Learning (QML) is a new field that aims to use quantum computers for data analysis, with the hope of obtaining a quantum advantage of some sort. While most proposed QML architectures are benchmarked using classical datasets, there is still doubt whether QML on classical datasets will achieve such an advantage. In this work, we argue that one should instead employ quantum datasets composed of quantum states. For this purpose, we introduce the NTangled dataset composed of quantum states with different amounts and types of multipartite entanglement. We first show how a quantum neural network can be trained to generate the states in the NTangled dataset. Then, we use the NTangled dataset to benchmark QML models for supervised learning classification tasks. We also consider an alternative entanglement-based dataset, which is scalable and is composed of states prepared by quantum circuits with different depths. As a byproduct of our results, we introduce a novel method for generating multipartite entangled states, providing a use-case of quantum neural networks for quantum entanglement theory.


翻译:高质量的大型数据集在古典机器学习的发展和成功中发挥了关键作用。 量子机器学习( QML) 是一个新领域, 旨在使用量子计算机进行数据分析, 希望获得某种量子优势 。 虽然大多数拟议的量子计算机结构使用古典数据集进行基准化, 古典数据集上的量子数据集是否具有这种优势仍有疑问 。 在这项工作中, 我们主张应当使用由量子状态组成的量子数据集。 为此, 我们引入由量子体不同数量和不同类型多相缠绕的量子国家组成的NTcle数据集。 我们首先展示一个量子神经网络如何被训练, 以生成在涅茨缠绕数据集中的状态 。 然后, 我们用NTML数据集来为受监管的学习分类任务设定QML模型基准。 我们还考虑一个基于量子数据集的替代纠结点, 该数据集由量子电路组成, 由不同深度的量子电路组成 。 作为我们结果的副产品, 我们为生成量子分子网络提供一种新式的量子网络, 量子网络, 提供了一种新式的量子网络的量子分子网络使用。

0
下载
关闭预览

相关内容

Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2022年1月19日
Arxiv
6+阅读 · 2019年12月30日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
6+阅读 · 2018年2月26日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2022年1月19日
Arxiv
6+阅读 · 2019年12月30日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
6+阅读 · 2018年2月26日
Top
微信扫码咨询专知VIP会员