谷歌量子计算领域再传突破性进展。近日,该公司联合美国加州大学伯克利分校团队在《自然》杂志发表封面研究,首次实现量子计算机运行可验证算法并超越经典超级计算机性能。实验数据显示,其开发的量子回声算法在Willow量子芯片上的运行速度较全球最快超级计算机提升13000倍,标志着量子计算从理论验证迈向实用化应用的重要转折。
研究核心在于量子回声技术的突破性应用。该技术通过向量子比特发送特定信号,经扰动后逆转信号演化过程,捕捉返回的"量子回声"。这种测量方式借助量子波叠加的相长干涉效应,使测量灵敏度达到前所未有的水平。实验中,研究人员观察到泡利弦之间的建设性干涉现象,这种量子关联特性在传统计算模型中完全无法实现。
在分子结构解析领域,这项技术展现出革命性潜力。研究团队对包含15个原子和28个原子的两种分子进行建模,发现量子计算结果与传统核磁共振技术一致的同时,还能捕捉到经典方法无法观测的化学信息。这种增强型核磁共振技术有望革新药物研发流程,通过精确模拟药物分子与靶点的结合方式,加速新药开发进程。在材料科学领域,该技术可精确表征聚合物和电池组件的分子结构,为新能源材料研发提供关键工具。
技术突破的基础源自谷歌量子硬件的持续进化。2024年,Willow量子芯片通过误差抑制技术解决了困扰学界三十年的量子退相干难题,为稳定运行复杂算法奠定基础。此次验证的乱序时间相关器(OTOC)算法,通过测量量子系统的时间反演特性,成功构建出经典计算机难以模拟的量子动力学模型。研究显示,OTOC算法对量子关联的敏感性使其成为验证量子优势的理想工具。
尽管取得重大进展,完全容错的量子计算机仍面临挑战。当前系统仅包含数十个量子比特,而实现科学突破级应用需要数十万量子比特的集成。谷歌工程副总裁哈特穆特·内文透露,距离量子计算机的实际工业应用可能还需五年时间。目前团队正着力攻克长寿命逻辑量子比特技术,这将是构建大规模量子计算系统的关键里程碑。
这项成果建立在谷歌量子研究的长期积累之上。2019年,该公司首次证明量子计算机可解决经典计算机需数千年完成的计算任务;2024年通过误差抑制技术实现量子计算稳定性的质的飞跃。此次量子回声算法的验证,不仅巩固了谷歌在量子计算领域的领先地位,更为化学、材料科学和生物医药等领域开辟了全新的研究范式。











