主要观点总结
谷歌量子计算部门的新芯片实现了量子计算的“低于阈值”,这意味着随着量子计算机规模的扩大,其准确率也将上升。这一重要里程碑有助于提升量子计算机的精度,走向实际应用。该研究发现,使用正确的纠错技术,量子计算机的精准度可以随规模扩展而递增,这一提升率会超过一个关键阈值。尽管仍存在挑战,如构建稳健的逻辑量子比特并将许多逻辑量子比特连成网络,但这一成果被视为量子计算领域的一个临界点,标志着激动人心的时刻。
关键观点总结
关键观点1: 谷歌量子计算部门的新芯片实现了“低于阈值”的量子计算,意味着量子计算机的精度提升。
这个成果是通过对信息量子比特进行分布到多个物理量子比特的方式实现的,通过纠错技术降低错误率。这项技术的成功演示证明了逻辑量子比特大小的每次递增都能将错误率减半。
关键观点2: 该成果代表了量子计算领域的一个临界点,是激动人心的时刻。
尽管还存在挑战,如构建稳健的逻辑量子比特和将许多逻辑量子比特连成网络,但这一里程碑式的成果被视为量子计算走向商业实用化的关键步骤。
关键观点3: 这一突破展示了量子纠错的潜力,是量子计算的终极阶段。
研究人员表示,纠错是量子计算的终极阶段,目前实现了一个较低的错误率,这是向具有商业实用价值的量子计算机迈进的重大进展。
文章预览
原文作者:Davide Castelvecchi 重大纠错成果表明,随着量子计算机规模的扩大,其准确率也将上升。 谷歌量子计算部门的一个低温箱。来源:Google Quantum AI 谷歌 (Google) 研究人员构建的一种芯片首次演示了“低于阈值”的量子计算——这个关键里程碑有助于提升量子计算机的精度,走向实际应用。 该研究12月9日发表于《自然》 [1] 。研究表明, 只要使用正确的纠错技术,量子计算机就能执行精准度随规模扩展而递增的计算——这种提升率会超过一个关键阈值。 对于大部分商业或科学用途来说,当前的量子计算机规模太小,太容易出错。 “这是我们努力了30年的一个目标。” 谷歌加州山景城总部的研究科学家Michael Newman在宣布这一重大成果的发布会上表示。这个成果意味着, 在2030年前,对于人们所能想到的最强大的经典计算机,量子计算能做出这
………………………………