这几天,总是有朋友和校友想让我写点关于量子计算的东西。他们的理由是量子力学,光电子学这些东西都是我的“童子功”,而且毕业后做了十几年这方面的东西。
我一直很犹豫写不写的原因在于:第一,我不知道能不能用普通人能理解的话语把量子力学原理说清楚,毕竟我没法像自己当年学习时那样拿公式说话,也不想故弄玄虚。第二,量子计算其实分两个部分:量子计算机和量子算法。这二者相辅相成,对前者我自认理解还比较到位,而对后者,我并没有接触过,只能引述文献中的介绍。
但这几天问我如何看待“九章”的人越来越多,连我父母都开始询问我了。我尽量简洁地回答:九章在光量子途径量子计算机设计上是一个突破,但距离实用还很远,我个人对它是否能实现可编程化(programmable)运行还有疑问。所以,像新闻里报道的那么轰动,其实有些不准确的。
可是,他们对我精炼后的答案都不满意。没办法,我只好试着以几个关键点的方式剥丝抽茧,试着解读一下量子计算吧。
量子霸权
量子霸权(quantum supremacy)是指:在某一个特定的计算问题上,量子计算机在计算速度上对经典计算机实现了碾压式的超越。所以更好的译法应该是“量子计算优势”。不过,这个特定的计算问题可以是特别设计出来的,不需要考虑实用价值。
当量子霸权被提出的当年,大家都认为量子计算机将对经典计算机全面超越,但如果了解量子力学的原理,就可以知道量子计算机利用量子的叠加态,纠缠态,以及测不准原理,完成了大型并发计算,以及海量存储。
假设我们有一个电话簿,然后想象你在电话簿中查找一个号码。传统的计算机会搜索电话簿的每一行,直到找到并返回匹配结果。而理论上,量子计算机可以即时搜索整个电话簿,同时评估每一行,并比经典计算机更快地返回结果。
还记得“薛定谔的猫”这个著名的测不准原理吗?盒子里的猫即处于生,也处于死的状态,因此,0和1 的状态是同时存在的。这和经典计算机不一样,经典计算机一个比特字节的状态不是0,就是1。而一个量子比特同时具有0,1两个状态。用学术的话来解释就是:量子比特可以制备在两个逻辑态0和1的相干叠加态,换句话讲,它可以同时存储0和1。考虑一个 N个物理比特的存储器,若它是经典存储器,则它只能存储2^N个可能数据当中的任一个,若它是量子存储器,则它可以同时存储2^N个数,而且随着 N的增加,其存储信息的能力将指数上升,例如,一个250量子比特的存储器(由250个原子构成)可能存储的数达2^250,比现有已知的宇宙中全部原子数目还要多。
由于数学操作可以同时对存储器中全部的数据进行,因此,量子计算机在实施一次的运算中可以同时对2^N个输入数进行数学运算。其效果相当于经典计算机要重复实施2^N次操作,或者采用2^N个不同处理器实行并行操作。
看起来很美对不对?但大规模并行处理解决效率最高的是那些本来就是非线性的问题,在解决普通线性问题时,没有多大用处。比如你的大脑极其睿智,能够在一刹那间感知战场上错综复杂的各种危险,并立刻做出规避动作。这就类似量子计算的并发处理,每个声音,光线,气味之间并无线性联系,但你的大脑选择了概率最大的一种状况。但是,如果你想知道你的枪膛里还有几颗子弹,你大脑的睿智就帮不了你了,只能乖乖地一颗颗数。这就是常规计算。
因此,量子霸权只是在某种特定问题上,采用某种特定算法时,量子计算机全面超越经典计算机。这一点,非常重要,后面所有的介绍,都是基于这一前提。
这两年,玻色采样问题,也就是一种针对光子(玻色子)系统的量子霸权测试案例成为各个公司争相用来证明自己量子霸权的依据。理论上,经典计算机求解玻色采样需要指数量级计算时间,而量子计算只需要多项式量级计算时间。与此同时,相比通用量子计算,玻色采样更容易实现。因此,玻色采样问题,并不是通用量子计算。这一点必须牢记,就如同大家在比力气,用提水桶来代替测试全身肌肉力量的方法。
所以,说美国的“悬铃木”实现了量子霸权也好,还是说中国的“九章”实现了量子霸权也好,只能说明中美在量子计算机的研制方面走在了前面,并不能说明两国的量子计算机已经可以实用,更不能说明这是一个“新时代的标志”。
当然,悬铃木与九章相比,无论在实验案例还是技术实现成熟度上,还是要好一些的。
谷歌的“悬铃木(Sycamore)”到底做过什么
2019 年 9 月底的时候,谷歌研制了一台由 54 个量子比特组成的处理器 (名为Sycamore 处理器)。该处理器利用量子叠加和量子纠缠实现的计算空间与经典比特所能达到的相比,实现了指数级的增加。由于有 1 个量子比特无法有效工作,处理器实际只用了 53 个量子比特。这一次实验,做的就是玻色采样问题。在这里有一个非常有趣的问题,就是谷歌研制的54量子比特的服务器,实际使用只能是53个。这也是量子计算机设计中最头痛的一点,便是可执行指令的量子比特,并不能达到最高设计,因为彼此之间的量子力学效应,会造成退相干时间缩短(对不起,这个概念后面会解释)或其它模拟量之间的影响。这一次九章实际上是50个光子生成了100个模式,理论上应该具备100个量子比特。而实际上完成的是76个,原因大概也是因为这个。
IBM表示不服,在他们自己的博客上对谷歌的量子计算机原型机进行抨击,认为IBM的经典计算机其实也可以达到。IBM认为谷歌并没有达到“量子霸权”。
它们这样写道(无技术背景的读者可忽略此部分):
量子计算的最新进展产生了两个 53 量子位的处理器:一个是来自我们 IBM 小组的,另一个是 Google 泄露的论文中描述的设备。在论文中,他们认为自己的设备达到了 “量子霸权”,而 “一台最先进的超级计算机将需要大约 1 万倍的时间来执行相同的任务。”
我们认为,对同一任务进行理想的模拟,可以在 2.5 天之内在经典系统上完成,并且保真度更高。实际上,这是一个保守的、最坏情况下的估计,并且我们期望通过进一步的改进,可以进一步降低模拟的成本。
因为约翰・普雷斯基尔(John Preskill)在 2012 年提出的 “量子霸权” 一词的原始含义是描述量子计算机可以完成经典计算机无法做到的事情,所以这个界限还没有达到。
这种特殊的 “量子霸权” 概念是建立在执行一个随机的量子电路的基础上的,这个电路的大小对于任何可用的经典计算机的模拟都是不可行的。
。。。。。。
“量子霸权” 的概念展示了量子计算机特有的资源,如直接访问纠缠和叠加。然而,经典计算机有自己的资源,比如存储器的层次结构和硬件中的高精度计算,各种软件资产以及广泛的算法知识库,在将量子与经典进行比较时,利用所有这些功能非常重要。
在与经典方法进行比较时,他们使用了一种先进的模拟方法,该方法利用了并行性、快速且无错误的计算和大的聚合 RAM,但是没有充分考虑大量的磁盘存储。相比之下,我们的 schrodinger 风格的经典仿真方法同时使用 RAM 和硬盘空间来存储和操作状态向量。
我们的模拟方法采用的性能增强技术包括电路划分,张量收缩递延,门聚合和批处理,集体通信的精心编排以及众所周知的优化方法(例如缓存块和双缓冲)以使通信遍历重叠在混合节点的 CPU 和 GPU 组件之间进行计算。我们的模拟方法具有许多不错的特性,这些特性不会直接从经典世界转移到量子世界。例如,一旦经过经典计算,就可以任意多次访问完整状态向量。我们的模拟方法的运行时间与电路深度大致成线性比例关系。由于相干时间有限,因此没有任何限制。
简言之,IBM的回复就这么几句:你这是用特定问题来吊打我,我不服!你这根本不是全面碾压,不算量子霸权!
其实,这几句如果悬铃木用来说九章,也是可以的。为什么呢?不妨卖个关子,咱们最后再说。
2020 年 8 月 28 日,在顶级期刊《科学》杂志的封面上,黑色的背景下,一个类似于计算机芯片的东西,向下投射出一束神秘的蓝光。在蓝光的映照下,飞舞着一些有机化学分子。这是谷歌公司的悬铃木(sycamore)芯片在不到一年的时间里,第二次登上顶级期刊的封面。封面上那个类似于计算机芯片的东西,正是谷歌公司的量子计算芯片,而那些飞舞在《科学》杂志封面上的有机物,则是一种简单的化学物质,名叫二氮烯。
这篇论文的内容是说谷歌公司成功地用 12 个量子比特,模拟了二氮烯这种物质的异构化反应。在完成“量子霸权”实验时,谷歌就宣称要在一年之内,用这台量子计算机完成一次化合物的模拟。新闻一出,读者们沸腾了。因为有机物质空间结构的模拟,是出名的计算量大,计算难度高,这几乎就是量子计算机得天独厚的领域。但仔细看了谷歌公司的论文后就能发现,事情并没有媒体猜测的那么乐观。谷歌量子计算机模拟的二氮烯这种物质,虽然算是有机物,但是它只包含 2 个氮原子和 2 个氢原子,也就是说,它只有 4 个原子。这与解决阿尔兹海默症那种高度复杂的蛋白质折叠问题相比,就好像是一块砖和一栋摩天大楼的差距。
但是,这次谷歌的悬铃木实验,证明了其实用价值。IBM没有再出来怒怼。因为,在有机物分析方面,量子计算机的并行计算能力,将大有可为。
不过,悬铃木不是有53个量子比特吗?为什么在这次实验中只用了12个?
因为量子计算机里负责计算的元件不是电路开关,而是真正的微观粒子。它们就像量子物理中描述的一样,没有确定的状态。我们只能用概率来解释它们的行为。还记得我们前面说的叠加态,纠缠态与测不准原理吗?他们就是这样结合在一起的。
量子计算机的这些能力,全部都建立在量子效应的基础上。而量子效应最害怕的一件事情,就叫做波函数坍缩。这个我们在最后讨论量子计算机使用限制时细说。在这次实验中出现的大量量子比特不可用,被称为量子比特损耗。
从这个实验结果,我们可以看出,高斯玻色采样实验是多么的不靠谱,是一种“英雄”实验,离实际使用条件相差很远。不过,悬铃木毕竟进行了实际问题的量子计算,证实了它的实用能力。所以,我认为九章作为原型机,而悬铃木应该作为工程样机来看待。
九章如果来做有机物分析实验会怎样呢?量子比特损耗会多大?我个人认为恐怕结果会很难看。因为这就和下面要谈到的几种量子计算机实现途径有关了。
量子计算机实现途径
现在关于量子计算机的设计思路,恐怕不下十几种。但比较成熟与大家认可的,主要还是下面几种:
超导量子芯片
超导量子计算是基于超导电路的量子计算方案,其核心器件是超导约瑟夫森结。超导量子电路在设计、制备和测量等方面,与现有的集成电路技术具有较高的兼容性,对量子比特的能级与耦合可以实现非常灵活的设计与控制,极具规模化的潜力。
缺点是工作温度极低,需要在超导状态下才能工作。要使用液氧或液氮进行冷却。
半导体量子芯片
由于经典计算机主要基于半导体技术,基于半导体开发量子计算也是物理学家研究的重点领域。相比超导量子计算微米级别的比特大小,量子点量子比特所占的空间是纳米级别,类似于大规模集成电路一样,更有希望实现大规模的量子芯片。现在的主要方法是在硅或者砷化镓等半导体材料上制备门控量子点来编码量子比特。编码量子比特的方案多种多样,在半导体系统中主要是通过对电子的电荷或者自旋量子态的控制实现。
离子阱量子计算
离子阱量子计算在影响范围方面仅次于超导量子计算。早在2003年,基于离子阱就可以演示两比特量子算法。离子阱编码量子比特主要是利用真空腔中的电场囚禁少数离子,并通过激光冷却这些囚禁的离子。离子阱的读出和初始化效率可以接近100%,这是它超过前两种比特形式的优势。单比特的操控可以通过加入满足比特两个能级差的频率的激光实现,两比特操控可以通过调节离子之间的库伦相互作用实现。
拓扑量子计算
拓扑量子计算是一种被认为对噪声有极大免疫的量子计算形式,这极大地避免了波函数坍塌。它利用的是一种叫做非阿贝尔任意子的准粒子。对噪声和退相干都有极大地免疫,因为唯一改变量子态的机制就是随机产生的任意子-反任意子对干扰了比特的编织过程,但这种情况在低温下是非常罕见的,噪声和其他量子比特系统常见的电荷等相比,影响是非常小的。
光量子量子计算
虽然离子阱量子计算也使用激光,但使用激光是为了禁锢离子。而光量子量子计算直接采用激光单一光源进行光路计算。受电磁场影响小,抗波函数坍塌好。但因为光束为模拟量,使用模拟量进行数据运算,在机制上,算法上受到限制很大。
在上面五种量子计算方式中,如果简单来说,超导与离子阱方式目前最为成熟。而在缩小体积,大规模集成化的情况下,离子阱方式因为需要多路光源来束缚多量子比特,因此很难体积减小。而光量子方式,由于直接采用光的模拟量特性,实时光路调整难度极高,因此体积会更大。而且光量子方式如果要“可编程”,必须解决光路的实时调度调度问题。这个问题在我们以前做全光网研究的时候就是一个跨不过去的门槛。因此,光量子方式要实用,太难。
目前,IBM,谷歌,英特尔,采用超导方式,比较容易创建量子比特。但是,明显劣势是必须要维持一个低温超导环境,才能够顺利地运行。而且,比较容易受到噪声干扰。
英特尔还采用半导体方式。
初创科技公司Ion Q在离子阱领域处于领先,已实现79量子比特门操纵技术。离子阱方式具有长相干时间,可长达10分钟,缺点是在集成上存在很大难度,系统难以扩展。
微软主打拓扑量子路线,根据这项技术的数学理论,这种技术方案可以有效地抵抗外界噪声,延缓坍缩和退相干的发生。但在物理实现上没有实质性的突破,仍处于基础研究阶段。
中科大的九章,采用光量子路线,抗干扰能力强,相干时间长。但集成难度最大,可编程性也最弱。
量子计算的天花板:波函数坍塌与退相干
还记得被薛定谔关在封闭盒子里的那只可怜的猫吗?这只猫之所以能够处于生与死的叠加态,正是因为盒子与外界是完全隔绝的。任何测量,都能把这只量子猫一瞬间打回原形,让它呈现出要么活着,要么死了的平凡状态。
量子计算机的量子比特也存在这种问题。只要有一点点的干扰,这些量子比特就会立即坍缩成一个确定的状态。哪怕一组量子比特中装着海量的数据,只要你一测量,这些数据都会立即化为乌有,坍缩成一个具体的数字。
即便是计算结果,你也没办法直接读出来。比如,我们用量子计算机,来计算抛出硬币后,正面和背面出现的概率。量子计算机计算得出了 50% 这个结论。但是,这个结论却没办法输出。因为我们只要尝试读出结果,就会导致波函数坍缩。结果也就从正确的 50%,变成了不是 1,就是 0 的确定答案了。
科学家们为了正确地获得计算结果,竟然要把同一个计算重复上万遍,然后再把这上万个具体的0 或者 1 统计一遍,才能重新得出 50% 这个计算结果。
另外一个严重影响量子计算的因素,是量子比特很难保持住量子纠缠的状态。量子纠缠状态又被称为相干性。一组纠缠在一起的量子中,只要有一个受到干扰,那么整组量子就会一起失去相干性,这种现象叫做退相干。相干性可以把量子比特的状态互相绑定在一起,这是实现量子算法的物理基础。而退相干则会让量子算法彻底失效。
2020 年 7 月 20 日,日本东北大学和悉尼新南威尔士大学的一项联合研究,把量子比特维持量子态或相干性的时间延长到了 10 毫秒 。这个成绩比以前的最好成绩,足足提高了 10000 倍。
所以,我们反过来回看谷歌公司的有机物实验,必须在千分之几毫秒的时间内,把二氮稀的演化算法重复上万遍。而且,必须要用大量冗余的量子比特来处理信息,以防某一个量子比特因为波函数坍缩而失去了计算能力。这就是 53 量子比特的量子计算机,只能拿出 12 个有效的量子比特来进行计算的主要原因。
量子计算的最后天花板是哪里呢?当我们把环境中能造成干扰和退相干的因素逐渐解决后,恐怕始终无法解决的就是宇宙射线辐射了。这也许就是量子计算机设计的天花板。
MIT的研究小组曾经用两米厚的铅墙来试图阻断环境辐射,但最后不得不接受一个事实:无法阻断宇宙射线辐射。这些极其微弱的辐射对量子比特的稳定性起到了严重的破坏作用。要想突破这个瓶颈,要么把设备放在地下一公里深的地方,要么在材料上进行创新突破,造出抗宇宙射线的元器件。
为什么说悬铃木会不服九章
说了这么多,诸位应该可以明白现在所谓的“量子霸权”实验是多么片面与初级了吧?量子计算离我们真正用到它还很遥远。我这一辈子能否见到,不得而知。
而现在用来当做量子霸权实验的高斯玻色采样实验,是一个模拟量采样实验。这本来是量子计算圈用自己的并发优势,准备吊打串行的经典电子计算机厂家的。没想到,九章这种光量子途径的量子计算原型机,本身就是模拟量计算。不需要数模变量之间的转化,当然在计算上要占便宜。
打个比方,我们两个人赛跑,你是哑巴,我是聋子。发令是先喊,然后旁边聋哑老师给转换成手语发令。你听得见,当然就比我占便宜了。
但是,我们必须要说的是,从量子计算的理论性研究上,九章的确是走出了一条自己的路,这是中国科技者实打实的成绩。只是,这条路,如何向集成化,可编程化,可用化演进,是需要更多的努力与辛劳的。
中美量子计算机并不是世界上的唯二先驱
中国的九章,如果是原型机,那么谷歌的悬铃木,就应该算是工程样机。这两种量子计算机都应该算是通用性量子计算机的原型。
但这并不是说明美国和中国就引领了全球量子计算的浪潮。因为我前面谈过,量子计算分量子计算机与量子计算算法两部分。由于量子计算完全是微粒子在进行量子效应下的计算,因此算法和线性的电子计算机算法完全不同。
所以,在量子计算机的研制中,有着另一条路径。就是根据具体可用的算法来研制专用量子计算机。这就像笑傲江湖中华山派“气宗”与“剑宗”的区别一样。
除了初期的Shor大数因子算法,Grover量子搜寻算法外,量子退火(Quantum Annealing)算法也许是目前人类最重要的一种算法。而世界上第一种商用量子计算机Dwave就是为基于量子退火算法设计的。
批评者认为这不是真正的量子计算机,而是一种具有特定计算功能的量子结构。但量子退火算法实在太有用了,所以Dwave还是很有吸引力的。找global minimum是机器学习等领域绕不开且相当费时一个过程。而量子退火可以极好地提速。
而量子退火计算机的研制,最早可溯源自日本东京工业大学的西森秀稔教授。量子退火机的核心技术多是在日本发明的,最终实现商用化的却是加拿大的创业公司Dwave。
写到这里,我突然想起五道口工程技术学校校友群里一位师兄在受到国内自媒体多年熏陶后,对日本与加拿大技术创新的嗤之以鼻。如果中国最好的技术学校的毕业生,对国际创新市场都无法有清晰的认识的话,那么普罗大众,会被这些宣传,搞成什么样子啊!
九章—原型机,中国;悬铃木 – 工程样机,美国;Dwave – 商用量子计算机,日本+加拿大。
了解了这些,才会知道什么是任重道远,什么是千里之行始于足下。。。
(作者:冠东兄的茶室 )
声明:本文由21财经客户端“南财号”平台入驻机构(自媒体)发布,不代表21财经客户端的观点和立场。