Parameterized Quantum Circuits (PQC) are drawing increasing research interest thanks to its potential to achieve quantum advantages on near-term Noisy Intermediate Scale Quantum (NISQ) hardware. In order to achieve scalable PQC learning, the training process needs to be offloaded to real quantum machines instead of using exponential-cost classical simulators. One common approach to obtain PQC gradients is parameter shift whose cost scales linearly with the number of qubits. We present QOC, the first experimental demonstration of practical on-chip PQC training with parameter shift. Nevertheless, we find that due to the significant quantum errors (noises) on real machines, gradients obtained from naive parameter shift have low fidelity and thus degrading the training accuracy. To this end, we further propose probabilistic gradient pruning to firstly identify gradients with potentially large errors and then remove them. Specifically, small gradients have larger relative errors than large ones, thus having a higher probability to be pruned. We perform extensive experiments with the Quantum Neural Network (QNN) benchmarks on 5 classification tasks using 5 real quantum machines. The results demonstrate that our on-chip training achieves over 90% and 60% accuracy for 2-class and 4-class image classification tasks. The probabilistic gradient pruning brings up to 7% PQC accuracy improvements over no pruning. Overall, we successfully obtain similar on-chip training accuracy compared with noise-free simulation but have much better training scalability. The QOC code is available in the TorchQuantum library.
翻译:QQC 参数转换是获取 PQC 梯度的一个常见方法,即参数转换,其成本比重与qubit 数量呈线性。我们展示了QOC,这是首次在芯片 PQC 上以参数转换进行实际操作的精确度测试。然而,我们发现,为了实现可缩放的 PQC 学习,培训过程需要卸载到真正的量子机上,而不是使用指数成本指数古典模拟器。我们进一步建议,一种常见的方法是参数转换,其成本比重与qubits数量呈线性。我们展示了QOC 模拟 PQC 培训与参数转换的首次实验性演示。然而,我们发现,由于在实际机器上的重大量差差差(噪音),从天性参数转换得的梯度变低,从而降低培训的准确性。为此,我们进一步提议,一种常见的梯度调整方法是首先确定具有潜在大误差的梯度梯度,然后将其除去。具体地说,小梯度比大错大,因此概率更高。我们使用参数转换。我们在QQNC QQ Q Q AS IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IM IML IML IML IM IML IML IML IM IM IM IM IM IM IM IM IM IM IM IM IM IM IML IML IML IML IML IM IML IM IM IM IM