To harness the potential of noisy intermediate-scale quantum devices, it is paramount to find the best type of circuits to run hybrid quantum-classical algorithms. Key candidates are parametrized quantum circuits that can be effectively implemented on current devices. Here, we evaluate the capacity and trainability of these circuits using the geometric structure of the parameter space via the effective quantum dimension, which reveals the expressive power of circuits in general as well as of particular initialization strategies. We assess the expressive power of various popular circuit types and find striking differences depending on the type of entangling gates used. Particular circuits are characterized by scaling laws in their expressiveness. We identify a transition in the quantum geometry of the parameter space, which leads to a decay of the quantum natural gradient for deep circuits. For shallow circuits, the quantum natural gradient can be orders of magnitude larger in value compared to the regular gradient; however, both of them can suffer from vanishing gradients. By tuning a fixed set of circuit parameters to randomized ones, we find a region where the circuit is expressive, but does not suffer from barren plateaus, hinting at a good way to initialize circuits. We show an algorithm that prunes redundant parameters of a circuit without affecting its effective dimension. Our results enhance the understanding of parametrized quantum circuits and can be immediately applied to improve variational quantum algorithms.


翻译:为了利用杂乱的中间级量子装置的潜力,至关重要的是要找到最佳类型的电路来运行混合量子古典算法。 关键候选人是可在当前装置上有效运行的准美量子电路。 在这里, 我们通过有效的量子维度, 利用参数空间的几何结构来评估这些电路的能力和可训练性。 这揭示了一般电路以及特定初始化战略的表达力。 我们评估了各种流行电路类型的表达力,并发现取决于所使用电门类型的惊人差异。 特定电路的特征是缩放法。 我们确定参数空间的量度几何测量方法的过渡, 从而导致深度电路的量自然梯度衰减。 对于浅线电路来说, 量自然梯度的量可比通常的梯度值大得多; 但是, 这两种电路的表达力都可能因渐渐变的梯度而受损。 我们通过调整固定的电路参数来显示电路的清晰度区域, 但不会因其直观而受到影响。 我们确定参数的偏差度, 我们确定参数的偏差度的偏差值的偏差值的偏向, 直径将显示我们的直流的直径值的直径值的直径直到直径值的直径直到直到直到直至。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
应用机器学习书稿,361页pdf
专知会员服务
57+阅读 · 2020年11月24日
最新《几何深度学习》教程,100页ppt,Geometric Deep Learning
【ICLR2020】图神经网络与图像处理,微分方程,27页ppt
专知会员服务
47+阅读 · 2020年6月6日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
神器Cobalt Strike3.13破解版
黑白之道
12+阅读 · 2019年3月1日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Quantum tangent kernel
Arxiv
0+阅读 · 2021年11月4日
Arxiv
4+阅读 · 2018年4月30日
VIP会员
相关资讯
图神经网络库PyTorch geometric
图与推荐
17+阅读 · 2020年3月22日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
神器Cobalt Strike3.13破解版
黑白之道
12+阅读 · 2019年3月1日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员