Quantum computers promise to enhance machine learning for practical applications. Quantum machine learning for real-world data has to handle extensive amounts of high-dimensional data. However, conventional methods for measuring quantum kernels are impractical for large datasets as they scale with the square of the dataset size. Here, we measure quantum kernels using randomized measurements to gain a quadratic speedup in computation time and quickly process large datasets. Further, we efficiently encode high-dimensional data into quantum computers with the number of features scaling linearly with the circuit depth. The encoding is characterized by the quantum Fisher information metric and is related to the radial basis function kernel. We demonstrate the advantages and speedups of our methods by classifying images with the IBM quantum computer. Our approach is exceptionally robust to noise via a complementary error mitigation scheme. Using currently available quantum computers, the MNIST database can be processed within 220 hours instead of 10 years which opens up industrial applications of quantum machine learning.


翻译:量子计算机承诺加强实际应用的机器学习。 量子计算机学习真实世界数据必须处理大量的高维数据。 然而, 测量量子内核的传统方法对大型数据集来说并不切实际, 因为它们与数据集大小的正方形相乘。 在这里, 我们用随机测量测量来测量量子内核, 在计算时间和快速处理大型数据集方面获得二次加速。 此外, 我们有效地将高维数据编码到量子计算机中, 其特征是与电路深度成线缩缩放的功能数量。 编码的特征是量子渔业信息量度, 与辐射基函数内核相关。 我们通过对IBM量子计算机进行分类来展示我们方法的优势和加速。 我们的方法通过一个互补的减少误差计划对噪音非常有力。 利用现有的量子计算机, MNIST 数据库可以在220小时内处理, 而不是在10年内开启量子机器学习的工业应用。

0
下载
关闭预览

相关内容

【干货书】真实机器学习,264页pdf,Real-World Machine Learning
【大规模数据系统,552页ppt】Large-scale Data Systems
专知会员服务
58+阅读 · 2019年12月21日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
100+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Machine Learning:十大机器学习算法
开源中国
19+阅读 · 2018年3月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
0+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年9月29日
Arxiv
6+阅读 · 2021年6月24日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
4+阅读 · 2018年4月30日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Machine Learning:十大机器学习算法
开源中国
19+阅读 · 2018年3月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Arxiv
0+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年9月29日
Arxiv
6+阅读 · 2021年6月24日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
4+阅读 · 2018年4月30日
Top
微信扫码咨询专知VIP会员