最新一期《自然》期刊的封面文章,证实了谷歌在量子计算领域的重要进展:谷歌研制的量子计算机首次实现“量子霸权”,其用200秒就能解决的问题,当今最强的超级计算机需要花费1万年。但是,IBM却指出,这项研究存在明显的漏洞。这场争议因何而起,量子计算究竟发展到了什么阶段?
9月22日,NASA官网上出现了一篇关于谷歌量子计算的论文。尽管当时只是发表在预印本网站,但论文一经公布,便引起轰动。因为谷歌在论文中宣布,他们取得了量子计算领域的里程碑式突破:一个包含53量子比特的处理器,首次实现了量子霸权。
量子计算机有着远超传统计算机的潜力,这已经是相关科学家的共识。一个直观的理由是,传统计算机的比特,也就是基本信息单位,只能是0、1这两种状态中的一个;而量子比特可以是0和1的叠加态,即同时处于这两种状态。因此,量子比特存储信息的潜能比传统的比特更强。
不过,虽然理论很诱人,但量子计算机的实践却并不顺利。一个限制因素是时间:量子相干的时间是有限的,如果量子退相干之前,量子计算还没有完成,那么最终的运算结果自然没有意义。此外,量子计算需要在接近绝对零度的低温下进行,因为热量可能会干扰、破坏量子态。
2012年,加州理工学院的量子物理学教授约翰·普雷斯基尔(John Preskill)在一篇文章中提出了“量子霸权”的概念。简单地说,量子霸权要求量子计算机能够完成经典计算机几乎不可能完成的任务。通常人们认为,需要大约50个量子比特,能达到量子霸权。但很长一段时间内,这都是研究团队难以企及的目标。
在这篇论文中,约翰·马丁尼斯(John Martinis)带领的团队构建了一个名为Sycamore的量子芯片。这个芯片由140个量子比特构成。其中54个是Transmon量子比特,用于储存信息;另外86个量子比特则用作耦合器,连接上述量子比特。最终,每个Transmon和4个耦合器相连,组成如下图所示的量子电路。不过,由于其中一个Transmon出现了故障,最终用于演示量子霸权的量子比特是53个。
研究团队首先利用这个系统进行了单量子比特和双量子比特计算,其保真度在99%~99.9%之间——这是令研究者满意的数据。随后,他们设计了一项对传统计算机而言非常困难的任务:对电路产生的随机数进行采样。正是这项任务中,出现了报道中最震撼的数据:Sycamore在200秒内完成的任务,传统计算机需要花费1万年之久。
当然,需要说明的是,这项研究的目的不在于证明量子计算机的实际用途,他们挑选的任务也不具备真正的应用价值,而仅仅是展示量子计算机的能力。因此,距离量子计算的下一个重要里程碑——真正通用的量子计算机,依然遥远。
但无论如何,这项成果仍旧令人振奋——至少谷歌CEO桑达尔·皮查伊(Sundar Pichai)是这样认为的。就在论文发表的当天,皮查伊在官网上发布了一篇题为《量子计算里程碑的意义》的博文。皮查伊在博文回顾了谷歌在量子计算领域的漫长研究历程。
但是,也有人并不认同谷歌的说法。就在本周一,谷歌在量子计算领域的直接竞争对手IBM也发表了一篇未经同行评议的预印本论文,而这篇文章的矛头直指谷歌宣称的“量子霸权”。论文指出,谷歌的论文中有明显的bug:他们低估了经典计算机的处理问题能力。IBM的科学家认为,Summit超级计算机完成这项任务所需的时间不是1万年,而是两天半。
IBM提出质疑的另一个原因是,他们认为“量子霸权”这个词的使用逐渐脱离了本意,而且对公众而言存在误导性:量子霸权只是在特定的问题上具有优势,而且,量子计算机并不是要真正“超越”传统计算机。相反,未来两者将共同协作,更加高效地解决问题。