量子机器学习找到新的突破口 绕开QRAM实现指数级内存优势。4月8日,由加州理工学院、谷歌量子AI、MIT和初创公司Oratomic组成的联合团队在预印本平台arXiv上发布了一篇论文,证明了小型量子计算机在处理大规模经典数据的机器学习任务中,可以用指数级更少的内存超越经典计算机。研究团队在电影评论情感分析和单细胞RNA测序两个真实数据集上验证了这一优势。实验显示,用不到60个逻辑量子比特,量子算法的内存消耗就比经典方法低了四到六个数量级。
量子机器学习领域已经发展了二十年,但一直未能兑现早期的宏大承诺。最初的一些算法号称能加速线性代数运算,后来被一系列“去量子化”工作证明经典计算机也能通过巧妙的随机采样实现。变分量子电路一度备受期待,但在训练中频繁遇到“贫瘠高原”,梯度消失的问题难以解决。
这些挫折背后有一个根本问题:几乎所有声称有量子加速的算法都假设数据已以量子态形式存在于机器中。现实世界的数据却是经典的,如电影评论、CT影像和基因表达数据等。如何高效地将这些数据“喂”给量子计算机一直是个难题。
量子随机存取存储器(QRAM)曾被视为解决这个问题的终极方案。理论上,它能让量子计算机像查字典一样,在叠加态中同时访问大量经典数据。然而,QRAM至今只停留在纸面上,维持其所需的相干访问对硬件要求极为苛刻。2024年发表在npj Quantum Information上的一项研究表明,要让QRAM达到实用规模,所需的硬件复杂度本身就会吃掉量子优势带来的收益。此外,用来维持QRAM运行的经典控制系统往往足够强大,可以直接解决原本打算交给量子计算机的问题。


