摩尔定律的终结与量子计算机的诞生

作者: 郭光灿

来源: 环球科学

发布日期: 2016-12-29

本文详细介绍了摩尔定律的终结与量子计算机的诞生,分析了量子计算机的优势、研制难点以及当前的研究进展,并探讨了中国在量子计算机领域的机遇与挑战。

量子计算机的诞生,和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。在20世纪80年代,摩尔定律很贴切地反映了信息技术行业发展。但“杞人忧天”的物理学家们,却提出了一个“大煞风景”的问题:摩尔定律有没有终结的时候?

之所以提出这个问题,是因为摩尔定律的技术基础,天然地受到两个主要物理限制。一是巨大的能耗,芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,计算机温度必然迅速上升,必须消耗大量能量来散热,否则芯片将被烧坏。二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。

电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。这两个限制就是物理学家们预言摩尔定律会终结的理由所在。

虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?这就导致了量子计算概念的诞生。

量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。甲之砒霜,乙之蜜糖。对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成为了资源。量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。

但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长时间内摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展方向是低能耗、专用这两个方向,而不再是追求速度。从这个例子,人们再次看到,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。

量子计算机和电子计算机一样,其功用在于计算具体数学问题。

所不同的是,电子计算机所用的电子存储器,在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。

量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。

一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。

一台有N个量子比特的量子计算机,要能保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前还没有这个能力做到。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。

实现量子计算机最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏将导致量子计算机并行运算能力基础消失,变成经典的串行运算。所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能制造出来。直到后来,科学家发明了量子编码。量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。

不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。这个阈值具体是多大呢?

这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。所以我们的目标就是研制大规模具有容错能力的通用量子计算机。

量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。

2004以来,世界上许多著名的研究机构,如美国哈佛大学,麻省理工学院,普林斯顿大学,日本东京大学,荷兰Delft大学等都投入了很大的力量,在半导体量子点作为未来量子芯片的研究方面取得一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。

国际上,在自旋量子比特研究方面,2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究,实现了两比特的CNOT(受控非)。虽然国际同行在电荷量子比特的研究中比我们早,但是至今也只做到四个量子点编码的两个比特。

我们研究组在电荷量子比特上的研究,从2010年左右制备单个量子点,然后2011年双量子点,2012-2013年实现两个量子点编码的单量子比特,2014-2015实现四量子点编码的两个电荷量子比特,目前已研制成六个量子点编码为三个量子比特个并实现了三个比特量子门操作。已经达到国际领先水平。超导量子芯片要比半导体量子芯片发展得更快。

近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在也达到了100多微秒。这花了13年的基础研究,提高了5万倍。特别是,超导量子计算在某些指标上也表现更好,分别是:1.量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。3. 已经实现9个量子比特的可控耦合。

4. 在量子非破坏性测量中,达到单发测量的精度5. 在量子存储方面,实现超高品质因子谐振腔。美国从90年代到现在,在基础研究阶段超导领域的突破,已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,以期全力争夺量子计算机这块“巨大的蛋糕”!其中,最典型的就是谷歌在量子计算机领域的布局。

它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Martinis团队(23人),从事量子人工智能方面的研究。他们制定了一个计划:明年做到50个量子比特,定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。

很多人都问,实际可用的量子计算机究竟什么时候能做出来?

中国和欧洲估计需要15年,美国认为会更快,美国目前的发展确实也更快。量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也调动了起来。

美国的量子计算机研制之路分3个阶段:第一阶段政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。反观中国的量子计算机发展,明显落后,软件、材料几乎没有人做,软硬件是相辅相成的,材料研究也需提早做准备。“十三五”重大研究计划,量子计算机应当“三驾马车”一起发展,硬件、软件、材料三个都要布局。尽管落后,毕竟量子计算机尚未研制成功,我们仍有机会,只是时间已越来越紧迫!

只要能发挥我国制度的优越性,集中资源有步骤地合理布局、支持,仍然大有可为!

UUID: 3ddd45fd-1d37-4dd8-aa11-a7e0d66fe774

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/环球科学公众号-pdf2txt/2016/2016-12-29_摩尔定律的终结与量子计算机的诞生.txt

是否为广告: 否

处理费用: 0.0079 元