1981年,美国物理学家费曼指出,由于量子系统具有天然的并行处理能力,用它所实现的计算机很可能会远远超越经典计算机1994年,麻省理工学院的Peter Shor教授提出分解大质因数的高效量子算法之后。如何实现一台量子计算机?更多详情请大家跟着小编一起来看看吧!

如何实现一台量子计算机(1)

如何实现一台量子计算机(1)

1981年,美国物理学家费曼指出,由于量子系统具有天然的并行处理能力,用它所实现的计算机很可能会远远超越经典计算机。1994年,麻省理工学院的Peter Shor教授提出分解大质因数的高效量子算法之后,量子计算就引发了世界各国政府的强烈兴趣。

经过二十多年的研究,对于如何建造一台量子计算机,人们越来越清楚了。

IBM的科学家David DiVincenzo 2000年提出了建造量子计算机的5点要求和两个辅助条件,为未来具有实用价值的量子计算机画出了蓝图。

这5点要求是:

1. 一个能表征量子比特并可扩展的物理系统;

2. 能够把量子比特初始化为一个标准态,这相当于要求量子计算的输入态是已知的;

3. 退相干相对于量子门操作时间要足够长,这保证在系统退相干之前能够完成整个量子计算;

4. 构造一系列普适的量子门完成量子计算;

5. 具备对量子计算的末态进行测量的能力。

两个辅助条件是:

(一)在静止量子比特和飞行量子比特之间实现量子信息的转换;

(二)具备在节点间实现量子比特传输的能力。

让我用通俗的话来解释一些这五个条件。

首先,我们得找到一个物理系统用做量子比特,作为量子计算的载体。所谓量子比特是把经典信息的基本单元比特扩展到量子世界的产物。不同于经典比特,只需要0和1,量子比特实际上是定义为0态与1态的任意量子叠加态。然后,类似于经典计算机,我们需要把量子计算机初始化,也就是把所有的量子比特都重置为零态。在进行计算的过程中,错误和耗散是很难避免的。为此,我们需要实现量子逻辑门操作的时间远小于量子比特的退相干时间。我们也需要让有限量子门操作组合起来能够实现任意的量子计算。在完成计算之后,还需要把计算结果高精度、高效率地读出来。

可见,要实现量子计算机的第一步,就是寻找合适的材料或者系统来承载量子比特 。目前看来,离子阱、超导电路、金刚石色心和半导体量子点都是有希望用来做量子比特的如下图所示。

离子阱量子计算是最成熟的技术,已经发展超过20年了。不论是量子比特初始化,量子逻辑门还是量子比特的读出技术都发展得很好。其存储时间也是非常长的,足够实现超过1000个以上量子逻辑门操作。超导电路量子计算技术是最近十年发展最为迅速的技术,其相干时间十年内增加上千倍,且与现有的半导体技术是兼容的,得到了美国的IBM和谷歌公司的大笔投入。金刚石中的氮-空位中心(色心)在常温下就具有非常好的量子相干性,但是其可扩展性问题也很严重,很难同时相干[HK4] 地操控多个金刚石色心。

一旦我们选定了合适的载体,在这个载体上实现了高保真度的通用量子逻辑门,并可以同时相干地操控大量的量子比特时,就打开了量子计算机实际应用的第一扇大门。

加州理工学院的John Preskill教授提出了所谓量子优越性(quantum supremacy)的概念。他认为,当我们可以操控的量子比特数目达到50到100个时,所做出的量子计算机,其计算能力将有可能超越目前最好的经典计算机。设计出合适的算法,就可以用这台量子计算机来完成某些特定的计算任务,解决经典计算机无法完成的问题。

目前为止,我们手头能工作的量子计算机,只有十几个量子比特。谷歌的科学家John Martinis预计,在今年底,他们实验室就能做出50个量子比特的量子计算机,有望验证量子计算机的优越性。

掌握了这个技术的信息产业公司,很可能会在竞争中获得先机。正是因为如此,美国的谷歌公司、IBM公司,乃至中国的阿里巴巴公司都在量子信息技术上投入了大笔的资金与资源。同为信息产业的巨头,美国微软公司看好的是计算过程得到拓扑特性保护的量子计算。早在十几年前,微软就在美国的加州大学圣巴巴拉分校设立了专门研究拓扑量子计算的量子实验室 Station Q。

为什么微软选择拓扑量子计算呢?因为对于通常的量子计算机,即使实现了所谓量子优越性,也只能对某些特定的问题有计算上的优越性。要实现通用的量子计算机,所要解决的问题还有很多。第一个就是如何纠错。我们必须设计好量子计算机的体系结构和量子比特的纠错码,保证其计算过程中所出现的错误能够被高效地纠正,让最终的计算结果可靠。根据容错量子计算的理论要求,量子逻辑门和量子测量设备的保真度都必须非常高(99.9%以上),才能确保错误可以被纠正。

虽然要求这么高,好消息是,到目前为止,在离子阱和超导电路系统中,量子纠错所需要的条件基本上达到了,被纠错机制保护的量子比特也得到了初步的演示。不过,要实现真正容错的通用量子计算机,要解决的难关还有很多。

理论分析认为,在量子计算机中,为了实现一个可容错的逻辑量子比特,也许需要几百甚至上千个物理比特。对于一个包含有[公式]个逻辑比特,可以用来进行破解密码的量子计算机来说,其中的物理比特数目可能达到[公式]以上。这简直是个天文数字,远远超越了我们目前的技术能力。真要做出来的话,其占地面积也许有一个足球场那么大。

拓扑量子计算的思路与此完全不同,它是1997年由俄罗斯物理学家Alex Kitaev提出来的,利用了物理系统某些被拓扑保护的性质,设计出拓扑量子比特和基于此的拓扑量子计算,计算过程能够被自发地保护起来,而不出现错误。因此,无需再设计复杂的纠错码和反馈机制来纠正其错误。虽然这看起来很完美,可是要实现拓扑量子计算的技术难度也是最大的。到目前为止,我们还没有在实验室实现被拓扑保护的量子比特。最近人们很感兴趣的马约拉纳费米零能模,是一个可以实现拓扑保护的系统,有望用于实现拓扑量子计算。有关马约拉纳零能模,可以读读祈晓亮、许岑珂和文小刚在“赛先生”上发表的文章:《量子粒子大观:狄拉克、外尔和马约拉纳》。

虽然通用量子计算机的实现还很遥远,但是现在已经有基于量子计算的云服务了。如果你有兴趣,可以去IBM网站上注册一个账号,他们在云端免费提供一个具有5量子比特的超导量子计算机。我们可以在本地用量子计算程序语言设计好逻辑门,然后通过此服务来远程操控IBM的量子计算机,提前体验量子计算的乐趣。