摘要:量子计算纠错也被AI攻克了?谷歌DeepMind全新推出基于Transformer的解码器AlphaQubit,通过10万次模拟实验,在量子纠错精度上树立新的里程碑。这篇登上Nature的创新性研究,为大规模量子计算的实现铺路。
编辑:桃子 好困
【新智元导读】量子计算纠错也被AI攻克了?谷歌DeepMind全新推出基于Transformer的解码器AlphaQubit,通过10万次模拟实验,在量子纠错精度上树立新的里程碑。这篇登上Nature的创新性研究,为大规模量子计算的实现铺路。AI再下一城,这次直接攻进了量子计算。
今天,谷歌DeepMind团队重磅发布全新的「阿尔法」模型——AlphaQubit,一个基于Transformer构建的解码器,能以高精度识别量子计算错误。
最新研究,已经发表在Nature期刊上。
论文地址:https://www.nature.com/articles/s41586-024-08148-8
量子计算机被视为下一次科学革命的强大引擎。经典计算机往往耗费数十亿年才能解决的问题,量子计算机仅需个几小时就能破解。
有了它,人类在变革药物发现、材料设计、基础物理学等方面潜力无限。
而这一切前提是,如何能够让其可靠地运行。
相较于传统计算机,量子计算机更容易受到噪声的干扰,尤其是在大规模的应用中更为明显。
如今,大模型既然能够大范围应用在蛋白质设计、数学定理证明、芯片设计之上,在量子计算中必然也能发挥出最大的效力。
AlphaQubit便是业界在量子计算领域中,最重要的一次尝试。
它汇集了两大领域的关键知识:Google DeepMind机器学习知识和Google Quantum AI纠错专业知识。
并在多达25轮纠错的样本上完成训练,经过10万次模拟实验,成功验证了AlphaQubit优异的性能。
具体来说,AlphaQubit在处理来自Google Sycamore量子处理器的实际数据时,在distance-3和distance-5表面码(Surface code)上,超越了其他SOTA解码器。
而且,在最高distance-11情况下,AlphaQubit利用软读出和泄漏信息,在串扰和泄漏等噪声模拟数据中,保持了优越的性能。
CEO劈柴表示,「AlphaQubit利用Transformer解码量子计算机,从而在量子精度纠错方面取得了SOTA。这是AI+量子计算另一个令人兴奋的交叉点」。
另一位谷歌研究副总表示,「我们相信这将是实现实用容错量子计算的第一步」。
AlphaQubit准确纠错量子计算,意味着新系统在未来能进行大规模计算,将为更多科学突破和新的发现打开大门。
正如网友所言,「AI似乎正成为一切的答案」。
实现量子霸权?量子纠错这关必须过
量子计算机得以实现,是利用了物质在最小尺度下的独特特性,如叠加和纠缠,以远少于经典计算机的步骤解决某些类型的复杂问题。
量子比特是支撑量子计算的信息单位。它可以利用量子干涉筛选出大量可能性中的答案。
然而,量子比特的自然量子态是脆弱的,可能受到多种因素的干扰:硬件中的微观缺陷、热量、振动、电磁干扰,甚至是无处不在的宇宙射线。
一般来说,构建大规模量子计算机,需要更高效策略来纠正物理量子系统中,无法避免的错误。
因此,业界提出了使用逻辑信息冗余的量子纠错方案——量子纠错码(Quantum error-correction code)。
也就是,将多个量子比特组合成一个逻辑量子比特,并定期对其进行校验。
解码器通过使用这些校验来识别并纠正逻辑量子比特中的错误,从而保护量子信息。
其中,最有前途的策略之一是,基于表面码的量子纠错。
如下图所示,在所有具有平面连接性的编码中,表面码具有最高的已知错误容忍度。
「阿尔法」攻进量子计算,少犯30%错误
在这样的背景下,谷歌团队提出了一种一种基于循环Transformer的神经网络架构AlphaQubit。
它能够根据综合信号输入学习预测逻辑可观测量的错误。
利用一致性检查作为输入,它的任务是在实验结束时测量逻辑量子比特是否已从其准备状态翻转。
图2:AlphaQubit的纠错与训练
AlphaQubit通过两个阶段的训练——先用模拟样本进行预训练,再用有限数量的实验样本进行微调训练。具体操作如下:
首先训练模型解码来自Sycamore量子处理器内部49个量子比特的数据,该处理器是量子计算机的核心计算单元。
为了教会AlphaQubit通用的解码问题,研究人员使用量子模拟器在各种设置和错误水平下生成了数亿个示例。
这里展示了如何在distance-3的量子比特网格中,利用九个物理量子比特单元(小灰色圆圈)形成一个逻辑量子比特。在每个步骤中,还有8个量子比特执行校验(方形和半圆区域,失败时显示为蓝色和品红色,否则为灰色),这些校验结果用于通知神经网络解码器(AlphaQubit)。在实验结束时,AlphaQubit会确定发生了哪些错误
然后,通过向AlphaQubit提供来自特定Sycamore处理器的数千个实验样本,对其进行特定解码任务的微调。
在新的Sycamore数据测试中,AlphaQubit相较于之前的SOTA解码器树立了新的精度标准。
在最大规模的Sycamore实验中,AlphaQubit比张量网络方法少犯6%错误,尽管张量网络方法高度准确,但速度极慢且不切实际。
AlphaQubit还比相关匹配方法少犯30%错误。
Sycamore实验中小规模和大规模的解码准确率(distance-3为17个物理量子比特,distance-5为49个物理量子比特)
具体实验方法如下:
研究人员首先将AlphaQubit应用于谷歌的Sycamore存储实验,其中包括distance-3和distance-5的表面码上进行的X基和Z基存储实验。
3×3编码块在Sycamore芯片上的四个不同位置执行,而5×5编码块则在一个位置执行。
对于每个总轮数n ∈ {1, 3, …, 25},进行了五万次实验,并将所得数据分为偶数和奇数子集以进行双重交叉验证。
下面描述的是在偶数集上的训练,以及在奇数集上的最终测试。
解码器性能通过每轮逻辑错误率(LER)来量化,即在每次额外的纠错轮中解码器失败的实验比例(图3a)。
解码器针对特定距离、基和位置进行训练,但可以解码任意轮次的实验。如上所述,训练分为两个阶段:预训练和微调(图2b)。
在预训练阶段,研究人员在三种不同程度与实验数据相似的模拟数据之一上进行训练。在前两种情况下,他们在从检测器错误噪声模型(DEM)中抽取的多达十亿个样本上进行预训练。
DEM要么是拟合到(偶数)检测错误事件相关性pij,要么使用基于设备校准数据(来自交叉熵基准XEB)的Pauli噪声模型导出的权重来近似硬件上发生的噪声。
在第三种情况下,作者在多达五亿个超导启发电路去极化噪声(SI1000噪声)样本上进行预训练,这不依赖于实验数据或量子设备,除了选择整体噪声规模以大致匹配实验事件密度。
在微调阶段,他们将325,000个偶数实验样本划分为训练和验证集。此过程使,作者能够在有限访问实验数据的情况下训练出高精度的解码器,同时将另一部分(奇数)保留为测试集。
AlphaQubit在distance-3时实现了 (2.901 ± 0.023) × 10⁻²的LER,在distance-5时实现了 (2.748 ± 0.015) × 10⁻²的LER(图3a,b),错误抑制比Λ = 1.056 ± 0.010。
其中,集成20个独立训练的模型在码distance-3(5)时,分别贡献了0.03 × 10⁻²(0.08 × 10⁻²)的改进。这个LER甚至低于张量网络解码器——在distance-3时为 (3.028 ± 0.023) × 10⁻²,在distance-5时为 (2.915 ± 0.016) × 10⁻²,且Λ = 1.039 ± 0.010。
而且,作者称这是迄今为止报告的该实验中最准确的解码器。
SOTA的基于MWPM的解码器,例如相关匹配(MWPM-Corr)、带有信念传播的匹配(MWPM-BP)和PyMatching(MWPM的开源实现),得到的LER高于张量网络和AlphaQubit(图3a,b)。
为了比较,研究人员还展示了Boris Varbanov提出基于LSTM的神经网络的结果36,以及谷歌自己实现的LSTM(两者均在XEB DEMs上进行预训练)。
这些在3×3上取得了良好的结果。Varbanov的基于LSTM的神经网络未能在5×5上匹敌张量网络解码器(图3b)。尽管谷歌团队的LSTM实现了这一点,但它无法扩展到更大的码距。
使用与实验数据匹配的噪声模型(pij或XEB DEMs)样本进行预训练比使用设备无关的SI1000(图3c)表现更好。
pij DEMs是为匹配基于匹配和张量网络解码器而设定的相同噪声模型。
在此先验下,AlphaQubit达到了与张量网络解码器相同的水平(在误差范围内)。
作者还注意到,即使在使用SI1000样本进行预训练且没有任何微调的情况下,AlphaQubit在码distance-5时也达到了与MWPM-BP相同的水平。
使用有限的实验数据进行微调可以减少与良好匹配的(pij和XEB)和一般性(SI1000)先验预训练的模型之间的LER差距;并将所有模型的LER提升到远超张量网络解码器(图3c)。
图3:3×3和5×5 Sycamore实验中每轮的逻辑错误率
Scaling AlphaQubit,10万轮模拟实验强泛化
为了了解AlphaQubit如何适应具有更低错误率的大型设备,谷歌使用模拟量子系统的数据对其进行了训练,这些系统最多包含241个量子比特,因为这超过了Sycamore平台的现有能力。
同样,AlphaQubit的性能优于领先的算法解码器,这表明它在未来也能应用于中型量子设备。
如下,折线图显示两个解码器的准确性随着码距的增加而提高,在更高的规模上几乎达到100%,其中 AlphaQubit表现最佳。
AlphaQubit还展示了高级功能,例如能够接受和报告输入和输出的置信水平。这些信息丰富的接口可以帮助进一步提高量子处理器的性能。
在使用包含多达25轮纠错的样本训练AlphaQubit时,它在多达100,000轮的模拟实验中保持了良好的性能,显示出其在超出训练数据的场景中的泛化能力。
不同规模/模拟实验的解码准确率(distance-3为17个量子比特,distance-11为241个量子比特),张量网络解码器因为运行太慢所以不在图中
迈向实用量子计算,预定下个诺奖?
AlphaQubit代表了使用机器学习进行量子纠错的一个重要里程碑。
它为机器学习解码领域设立了一个基准,并开辟了在真实量子硬件中使用高精度机器学习解码器的前景。
在distance-11时,训练似乎更具挑战性,并且需要增加数据量。
尽管根据团队经验,通过训练和架构改进可以显著提高数据效率,但在超过distance-11上展示高精度仍然是未来工作需要解决的重要步骤。
此外,解码器需要实现每轮1微秒的吞吐量以用于超导量子比特和1毫秒用于囚禁离子设备。提高吞吐量仍然是机器学习和基于匹配的解码器的重要目标。
虽然AlphaQubit的吞吐量慢于1微秒的目标,但可以应用一系列已建立的技术来加速,包括知识蒸馏、低精度推理和权重剪枝,以及在定制硬件中的实现。
作为一种机器学习模型,AlphaQubit最大的优势在于其从真实实验数据中学习的能力。
这使它能够利用代表I/Q噪声和泄漏的丰富输入,而无需为每个特征手动设计特定算法。这种利用可用实验信息的能力展示了机器学习在更广泛的科学问题解决中的优势。
随着量子计算朝着商业相关应用所需的潜在数百万量子比特发展,谷歌还需要找到更有效的数据方法来训练基于AI的解码器。
来源:新智元一点号