别高兴太早,研发量子计算机的难度你想象不到

屡登顶级期刊封面

2020 年 8 月 28 日,在顶级期刊《科学》杂志的封面上,印着一个奇怪的画面。在黑色的背景上,一个类似于计算机芯片的东西,向下投射出一束神秘的蓝光。在蓝光的映照下,飞舞着一些有机化学分子。

这是谷歌公司的量子计算芯片在不到一年的时间里,第二次登上顶级期刊的封面。封面上那个类似于计算机芯片的东西,正是谷歌公司的量子计算芯片,而那些飞舞在《科学》杂志封面上的有机物,则是一种简单的化学物质,名叫二氮烯

这篇论文里说[1],

谷歌公司成功地用 12 个量子比特,模拟了二氮烯这种物质的异构化反应。

大家可能还记得,在 2019 年 9 月底的时候,谷歌公司用 53 个量子比特的的量子计算机实现了所谓的量子霸权,从而登上了顶级期刊《自然》杂志的封面[2]。

量子霸权是指:在某一个特定的计算问题上,量子计算机在计算速度上对经典计算机实现了碾压式的超越。所以我觉得更好的译法应该是“量子计算优势”。不过,这个特定的计算问题可以是特别设计出来的,不需要考虑实用价值。

于是,量子霸权成为了一个里程碑式的存在。但是,谷歌公司显然对实现量子霸权并不满足。他们许下宏愿说,一年之内,要用这台量子计算机完成一次化合物的模拟。果然,不到一年时间,谷歌公司就把这件事儿做成了。所以,新闻一出,科学爱好者们立即就沸腾了。因为有机物质空间结构的模拟,那是出了名的计算量大,计算难度高。这几乎就是量子计算机得天独厚的领域。还有一些新闻媒体做出了大胆的解读和猜测,能模拟有机物,那是不是很快就能模拟蛋白质了?是不是阿尔兹海默症、帕金森症这些疾病,很快就能攻克了?

但是,有点儿遗憾的是,在仔细看了谷歌公司的论文后就能发现,事情并没有媒体们猜测的那么乐观。谷歌量子计算机模拟的二氮烯这种物质,虽然算是有机物,但是它只包含 2 个氮原子和 2 个氢原子,也就是说,它只有 4 个原子。这与解决阿尔兹海默症那种高度复杂的蛋白质折叠问题相比,就好像是一块砖和一栋摩天大楼的差距。

其实早在 2017 年,IBM 公司就利用 7 个量子比特,模拟了氢化铍分子的特性[3]。氢化铍分子中有两个氢原子和一个铍原子,总共 3 个原子,只比谷歌公司这一次模拟的二氮烯,少了一个原子而已。

图:IBM 的量子计算机

所以,谷歌这一篇论文,其实只是证明了他们的量子计算机的实用价值而已,所以并没有实现有些媒体过度解读的那种“质的突破”。

听到这里,你可能会有疑问。IBM 模拟氢化铍用了 7 个量子比特,谷歌模拟二氮烯用了 12 个量子比特。可是,谷歌的量子计算机足足有 53 个量子比特呢,如果把所有的 53 个量子比特全部用于计算,是不是就能模拟更复杂的化合物了呢?为什么最好的量子计算机只有 53 个量子比特,让量子比特增加,到底难度在哪里呢?

量子计算与经典计算的不同

可能有人觉得,电子计算机和量子计算机,只相差一个字,应该一个用电子做计算,另一个则用量子做计算。其实,这个理解是错误的。电子计算机里的电子,指的并不是真正的电子,它指的是电子电路。虽然我们已经把计算机芯片的尺度缩小到了纳米级别,但是,这些电路依然与墙上的那些开关一样,是完全可控的。

而量子计算机里负责计算的元件可不是开关,那些都是真正的微观粒子。它们就像量子物理中描述的一样,没有确定的状态。我们只能用概率来解释它们的行为。

图:量子芯片

幼儿园小朋友算算数时,用的是掰手指头的方法来计算。掰手指头算算数,虽然又原始又缓慢,但它与太湖之光超级计算机的本质一样,都属于经典计算的范畴。虽然芯片中的每一个晶体管已经做得比病毒还要小,但是,这些晶体管依然是完全受控的。它们与手指头一样,都是受经典物理学定律指挥的。

与经典计算相对的,就是量子计算。

你可能听说过量子力学中的叠加态、测不准原理和量子纠缠这些奇怪的特性吧。量子计算机真的就是利用了量子力学的这些奇怪特性而设计出来的。

为了让大家能理解量子计算的独特之处,这里我们举几个高度简化的例子:

现在请你想一个 1 到 10 之间的数字,然后用一只手表示出来。我们可以用 5 根手指头表示出 1 到 5 ,然后用拇指和小指一起伸出来表示 6,拇指和食指一起,可以表示 8,如果表示 10,那就攥紧拳头就行了。

那么,请你回答,你用一只手,每一次到底能表达多少个数字呢?你肯定觉得这根本不是一个问题,一只手每次当然只能表达一个数字呗。没错,一只手在同一时间只能表达一个数字,这就是经典计算机存储数据的根本规律。计算机比我们的手指头更快,但它的一个比特位,仍然只能存储一个二进制数。

但是,如果换成量子计算机,那表达数字的方式立即就被颠覆了。现在,请把你刚刚用来表示数字的那只手踹在兜里,先别着急拿出来。请你想一想,你踹在兜里的这只手,如果伸出来之后,有可能表达出多少种数字呢?答案是 10 种可能。但是,在你真正把手伸出来表示一个数字之前,你的手会比出哪个数字,仍然是不确定的。这正是量子计算机的存储单元——量子比特的存储方式。它储存的不是具体的数据,而是所有可能出现的数据的出现概率。你也可以理解为,你踹在兜里的这只手,具有某种不确定性。所有你可以用这只手表达的数字,全部都叠加在一起了。你只用了一只手,就存储了 10 个不同的数字,每个数字出现的概率都是 10%,这就是量子比特的威力。

如果你觉得,同时存储 10 个数字,算不上什么神奇的事情,那是因为我们的一只手只有 5 根手指,而且编码的方式也不够好。如果我们用二进制来表示数字, 5 根手指就能同时存储 32 个数字。如果同时用两只手,那就可以同时存储 1024 个数字了。请看,这就是量子比特的威力所在。同样是 10 根手指,使用叠加态会让存储能力提升了足足 1000 倍,但它们使用的硬件资源却是完全一样的。

不仅如此,以后每增加一个量子比特,存储能力就能再提升一倍。按照这个规律增加下去,用不了多久,我们可以同时存储的数字总量,就比全宇宙的原子数还要多了。

上面咱们说的只是存储问题。光有超大的存储能力,还不能完全体现出量子计算机的强大来。我们再说说,量子计算机是怎么进行并行计算的。

量子计算机的并行计算

任何一次计算,都是把已知条件代入公式,然后通过计算得到结果。经典计算机上的已知条件,就是一个一个的确定的数字。把确定的数字代入公式,当然也只能得到确定的结果。一次计算,得到一个结果,这就是经典计算机的计算模式。

我们可以再打个比方,现在有一个黑盒子,左边伸出 1024 根电线头,右边也伸出 1024 根电线头。现在有人告诉你,其实只有一根电线是连通的,请问,你该如何找到这根连通的电线呢?如果使用经典计算机,我们只能一个一个地尝试。左边的 1 号线头和右边的 1 号线头试试,如果不行,就用左边的 1 号线头和右边的 2 号线头再试,直到找到答案为止。这种方法,最不幸的结果,就是可能要尝试 1024x1024 次,也就是大约 100 万次才能找到答案。

如果用量子计算机解决这个问题,就简单多了。刚刚我们说过,量子比特的存储,所有可能的数字,都是叠加在一起存储的。那么从 1 到 1024,其实就只是一组量子比特而已。也就是说,只需要一次计算,量子计算机就同时把所有的可能都考虑进去了。它可以一次性地找到那根连通的电线。一次计算,量子计算机就通过并行计算,实现了 100 万倍的效率提升。

图:谷歌的量子处理器

超级强大的存储能力,加上只需要算一遍,就能得到全部结果的并行处理能力,以及每增加一个量子比特,能力就能增加一倍的神奇特性,让全世界都对量子计算机产生着强烈的期待。

量子计算的瓶颈

然而理想很丰满,现实却是骨感的。量子计算机的这些超能力,全部都建立在量子效应的基础上。量子效应最害怕的一件事情,就叫做波函数坍缩

还记得被薛定谔关在封闭盒子里的那只可怜的猫吗?这只猫之所以能够处于生与死的叠加态,正是因为盒子与外界是完全隔绝的。任何测量,都能把这只量子猫一瞬间打回原形,让它呈现出要么活着,要么死了的平凡状态。

量子计算机的量子比特也存在这种问题。只要有一点点的风吹草动,这些量子比特就会立即坍缩成一个确定的状态。哪怕一组量子比特中装着海量的数据,只要你一测量,这些数据都会立即化为乌有,坍缩成一个具体的数字。

更过分的是,即便是计算结果,你都是没办法直接读出来的。比如,我们用量子计算机,来计算抛出硬币后,正面和背面出现的概率。量子计算机计算得出了 50% 这个结论。但是,这个结论却没办法输出出来。因为我们只要尝试读出结果,就会导致波函数坍缩。结果也就从正确的 50%,变成了不是 1,就是 0 的确定答案了。

科学家们为了正确地获得计算结果,竟然要把同一个计算重复上万遍,然后再把这上万个具体的 0 或者 1 统计一遍,才能重新得出 50% 这个计算结果。

另外一个严重影响量子计算的因素,是量子比特很难保持住量子纠缠的状态。量子纠缠状态又被称为相干性。一组纠缠在一起的量子中,只要有一个受到干扰,那么整组量子就会一起失去相干性,这种现象叫做退相干。相干性可以把量子比特的状态互相绑定在一起,这是实现量子算法的物理基础。而退相干则会让量子算法彻底失效。

2020 年 7 月 20 日,日本东北大学和悉尼新南威尔士大学的一项联合研究,把量子比特维持量子态或相干性的时间延长到了 10 毫秒 。这个成绩比以前的最好成绩,足足提高了 10000 倍[4]。

图:研究人员采用的核心技术——基于受体的自旋轨道量子位(艺术概念图)

现在你应该大致了解,谷歌公司是在何等艰苦的条件下,完成了对二氮稀分子的模拟了吧。他们必须在千分之几毫秒的时间内,把二氮稀的演化算法重复上万遍。而且,他们必须要用大量冗余的量子比特来处理信息,以防某一个量子比特因为波函数坍缩而失去了计算能力。这就是 53 量子比特的量子计算机,只能拿出 12 个有效的量子比特来进行计算的真正原因。

量子计算机的设计难度

很多人喜欢拿经典计算机的摩尔定律来套量子计算机。他们以为去年制造出了 53 量子比特的量子计算机,今年就应该把指标提高到 106 量子比特,后年就应该是 212 个量子比特。其实,大部分人都低估了量子计算机的设计难度。

经典计算机的芯片之所以能符合摩尔定律,是因为制造芯片的技术储备已经成熟,只差技术细节的积累和突破了。但是量子计算机的处境却完全不一样。我们只是确认了量子计算机的设计理论正确无误,但是却没能确定,量子计算机该走什么样的技术路线。

用经典计算机来打个比方。这就好比我们已经知道制造计算机是可行的,但是我们还没发明出电子管和晶体管来。这时候,到底用哪种机械装置来实现计算机,就是一个大问题了。现在量子计算机所处的阶段,大概就相当于发明了手摇加法器的年代。

你还真别觉得夸张,现在至少有 20 种不同的量子计算机制造方案。每一种方案,都在某一个方向上具有一点独特的优势。

比如,通过小型超导电路制造的超导量子计算机,有着比较容易创建量子比特的优势。现在谷歌和IBM用的都是这个方案。但是,超导量子计算机也有明显的劣势,那就是必须要维持一个低温超导环境,才能够顺利地运行。而且,这些量子比特也比较容易受到噪声的干扰。

微软公司比较热衷于制造拓扑量子计算机,根据这项技术的数学理论,这种技术方案可以有效地抵抗外界噪声,延缓坍缩和退相干的发生。不过,这项研究目前仍然处在数学阶段,还没有真实的计算机造出来[5]。

图:拓扑量子计算理论模型

除此以外,还有依靠电磁场控制带电离子的离子阱量子计算机、依靠光学设备控制光子的光量子计算机

每一种设计方案,都有自己独特的优点。目前,还没有任何一种方案,能够力压群雄,最终胜出。

在过去的几年里[6],美国、英国、加拿大等国家对量子计算机的研发投入超过了 10 亿美元,德国、俄罗斯和荷兰等国在量子计算上也投入了数亿美元。但是,很显然,在一个具体的技术方向确定之前,这些巨额的投资被各种各样不同的方案分散了。

目前看来,虽然比较领先的谷歌和 IBM 走的都是超导量子计算机的路线,但从这两家公司目前遇到的困境来看,我们仍然不能肯定,这就是那个最优的解决方案。

宇宙射线或将锁死量子计算机的未来

麻省理工学院最近的一项研究表示[7],噪声干扰导致的量子比特退相干问题,很可能成为当前量子计算机技术发展的天花板。麻省理工学院林肯实验室的研究员奥利弗教授说:“在过去的20年里,我们就像剥洋葱一样,把引起量子比特退相干的因素一个一个地解决掉。到现在,除了周围的环境辐射以外,已经没有太多的事情可以做了。”

为了减少周围的环境辐射,研究小组甚至把 2 吨重的铅块做成了防辐射墙。他们不断地升起和降下这堵铅做的墙,来测定环境辐射对量子比特退相干的影响。

最后,他们的结论是,这些措施有效地阻挡了来自周围环境的辐射,但是却挡不住无处不在的宇宙射线,宇宙射线已经成为阻碍量子计算机进一步发展的天花板。

他们没有想到,那些极其微弱的辐射竟然对量子比特的稳定性起到了严重的破坏作用。现在,科学家们要么带着设备躲到 1000 米深的地底下去,要么就必须研发出有效的能够抵抗宇宙射线干扰的元器件。

说句大白话就是,宇宙射线锁死了我们的量子计算机技术。(难道这也是三体文明的阴谋吗?)

突破量子计算机的技术奇点

解决退相干问题,大幅度增加量子比特的稳定性,这很可能就是我们要寻找的那个技术奇点。只要这个点被突破,量子计算机就有可能取得爆发式发展。

刚刚突破奇点的量子计算机并不一定非常强大,它们可能仍然只具备几十个可控量子比特,但是,这些计算机的稳定性得到了大幅度的提高。这些量子计算机会被接入到互联网中,为公众提供比较稳定的量子计算云服务。

这时候的量子计算机由于量子比特不够多,仍然无法运行肖尔算法这样的复杂算法。我们的密码也并不会遭遇挑战。但是,全世界已经嗅到了危险的信号,世界正处在量子计算革命的前夜当中。很快,多种符合量子计算时代的安全密码被开发出来,全世界的软件都开始了一轮基于密码学的版本大升级[8]。

这时候,全世界的工程师都在尝试发明新的量子算法。一些专用算法被用在专门建造的量子计算机上,另外一些算法则需要等待量子计算机变得更强后才能运行起来。最有意思的是,这个阶段很可能产生一种帮助优化和设计量子计算机的算法,这让量子计算机成了设计更好的量子计算机的驱动力。这些算法能够帮助我们,把量子计算机设计得更好。量子计算机的发展开始了加速。

图:设计建造中的量子计算机

这时候,由于技术的发展,原本必须工作在接近绝对零度环境中的量子计算机,可以工作在4K ,甚至更高的温度下。于是,人类开始利用太空的低温环境,在太空建造大型的量子计算机。原来为了维持超导环境而耗能巨大的量子计算机,到了太空之后,使用成本一下子就降下来了。很快,量子计算成为一项普遍的公众服务。凡是适合量子计算机解决的问题,都会被拿去用量子计算机来解决,人类对计算的需求一下子被释放了出来。

人工智能或将迎来全新时代

全世界的信息化也会达到前所未有的水平。充沛的算力会帮助人类处理掉物联网收集到的全部信息。在量子计算的帮助下,人工智能的训练将达到前所未有的高度。

无论我们是否能破解人类意识的秘密,仅凭借模式识别的不断优化,我们就能制造出非常接近人类行为的人工智能。一个真正的智能时代即将来临。

通过精准模拟大气运动,短期天气预报将变得极为精准。通过对海量图像的模式识别,我们几乎可以让人工智能帮我们识别出照片上的任何东西。互联网上的所有信息都会被读取和分析,我们有可能能够追溯任何一条信息的原始信源,让伪科学和谣言无所遁形。我们会深入蛋白质分子层面进行病理研究和药物研发,所有人体内的化学反应都将被彻底弄清。我们会深度解读每个人的基因,我们有机会彻底弄清楚每一个基因代表的含义,人体很可能会被彻底解码。我们的医疗也会进入到基于基因解析的精准医疗阶段,人类的寿命会被延长到极致,除了仍然无法对抗的衰老,我们不再惧怕任何疾病。

在完成上述计算之后,如果算力依然充足,人类必然会把手伸向宇宙。我们会对地球上能接收到的所有电磁波进行拉网式搜索,也许我们很快就能发现来自遥远星系的智慧生命的呼唤。

人类或将掌握微观世界的底层规律

经典计算机的发展,会一直发展到摩尔定律失效,芯片的尺度达到物理极限为止。未来,量子力学会接过经典力学的接力棒,一直推动量子计算机的发展。人类对世界的理解,将从宏观近似的理解,跃升为对微观世界底层规律的精准理解。

量子力学主宰的微观世界,一直以来都以它的反常识和怪异的规则,展现给我们一副生人勿近的状态。

但是,量子力学理论指导下的量子计算机,成了量子力学的破壁人。它不仅把量子力学的各种怪异的特点,应用得淋漓尽致,还通过自己强大的计算能力,不断提升着自身的能力。有了量子计算机之后,人类控制微观世界的大门,就被开启了。

很难想象,人类对微观世界的控制,最终会达到什么样的水平。但是,我们可以肯定的是,量子计算机必然能加深我们对于量子力学的理解,从而形成互相促进的良性循环。也许,人类寻找万物理论的终极梦想,也能在这个阶段得以实现。

人类是否会像科幻大师阿瑟·克拉克在《太空漫游四部曲》中描写的银河主宰一样,最后把自己也化作量子信息,融入到宇宙中去。小编觉得,如果顺着这个方向,一直开脑洞下去,还真不排除这种可能呢。

信源

https://science.sciencemag.org/content/369/6507/1084https://www.nature.com/articles/s41586-019-1666-5https://www.sciencemag.org/news/2017/09/quantum-computer-simulates-largest-molecule-yet-sparking-hope-future-drug-discoverieshttps://www.sciencedaily.com/releases/2020/09/200904121331.htmhttps://www.sohu.com/a/116866480_465975https://www.analyticsinsight.net/top-10-countries-leading-quantum-computing-technology/https://eurekalert.org/pub_releases/2020-08/miot-crm082420.phphttps://techbeacon.com/security/waiting-quantum-computing-why-encryption-has-nothing-worry-about

End

来源:科学有故事

编辑:Watson

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章