科技巨头卡位量子计算 量子AI成最热场景

21世纪经济报道 倪雨晴 上海报道
2018-10-19 07:00

基于量子计算的量子计算机成为众多公司的终极目标,但是距离目标实现还很远,目前各方都还在规模化地测试量子计算的可行性。

量子计算领域的装备竞赛愈演愈烈。

近日,华为发布了量子计算模拟器HiQ云服务平台,包括量子计算模拟器与基于模拟器开发的量子编程框架。

其他科技巨头们也纷纷亮出成果。今年5月,阿里巴巴达摩院量子实验室就推出了量子模拟器“太章”,在随后的云栖大会上,阿里巴巴宣布已着手量子计算系统和超导量子芯片的研发。在今年3月,百度宣布成立量子计算研究所。而谷歌、微软、英特尔、IBM等国外公司也早已在量子计算领域拥有一方势力。

量子计算之所以如此重要,是因为其一方面可以解决经典计算机算力不足的问题,另一方面也可以减少能耗。

华为量子计算软件与算法首席科学家翁文康接受21世纪经济报道记者专访时谈道:“量子计算是一种革命性的计算方法,根据量子效应设计相应的算法,能够解决一些复杂的计算问题。而且这些问题是目前的计算机做不到的。在经典计算机的架构上,我们传统上按照摩尔定律的思路,不断地缩小器件工艺的尺寸,提高集成度去加速计算,但这个方法已经到了瓶颈。”

承载着经典计算机算力指标的芯片目前已经达到5nm的工艺,芯片上布满百万量级的纳米级晶体管。随着晶体管尺寸越来越小,运行过程中会出现两大难题:第一是发热严重,使得计算效率降低,需要降温;第二是当晶体管尺寸减小到某一程度时,量子穿梭效应很容易出现,即无需电压,电子也可以穿过晶体管,这意味着晶体管无法控制电子的运动,这也成为经典计算机的一个瓶颈。

量子计算则可以利用量子比特(qubit)的叠加态、量子纠缠等特性来大幅度提升算力,人类探索更高的智慧文明,也需要更高的算力。因此,基于量子计算的量子计算机成为众多公司的终极目标,但是距离目标实现还很远,目前各方都还在规模化地测试量子计算的可行性。

巨头竞逐量子计算

“过去量子计算主要在学术界发展,在最近三五年之间开始慢慢有企业对此产生兴趣。” 翁文康说道,“在企业的推动下,工程化有了快速的进展,量子器件的性能得到大幅的提升。比如说量子比特数,企业介入之前只有大概三到五个,到了今天已经有大概五十到七十个比特,这是大幅的跳升。”

70个量子比特的威力有多大?先来看经典计算机中,采用的是二进制,信息的最小单位是比特(bit),一个比特代表“0”或者“1”;而量子比特是量子计算机中的最小信息单位,它的独特之处在于还可以同时表达“0”和“1”,即两种状态可以同时存在。这就意味着有N个量子比特时,计算速度是2的N次方,计算能力呈指数级增长。2的70次方就等于1180591620717411303424次,一秒内达到的运算速度就远远超出目前最强经典计算机。

超强的算力也令巨头垂涎。

以华为为例,最新发布的量子计算模拟器HiQ云平台,其实是华为对量子计算领域基础科研投入的第一步。翁文康向记者介绍道:“我们在软件并行架构能力、云服务器的性能方面,是同时进行优化的,不但达到云平台里面的指标是业界里面领先的,比如说全振幅,42个比特,单比特是81到169个比特,也有能力做到量子纠错电路模拟。”

华为量子计算软件与算法架构师、资深研究员张学仓进一步向21世纪经济报道记者阐述道:“我们其实集成了好几个模拟器,一个叫全振幅模拟器,我们全振幅的意思就是2的N次方所有的量子概率幅度都算出来,这在所有的模拟当中是最困难的,我们现在基于华为云用了几百个节点,最大做到42量子比特,模拟器其实是属于量子计算研究的中间产品,或者说是一个量子计算研究初始阶段的工具,它不是量子计算机,它不是未来最终量子计算机的一部分,因为它还是跑在经典计算机上。”

而HiQ云平台作为工具,可以加快量子计算领域软硬件的开发和研究,翁文康说道:“虽然说业界硬件有进展,但还是面临非常复杂的系统工程问题。”

再看量子领域的其他玩家。国外公司技术积淀已久,IBM在2017年就宣布成功研制50量子比特原型机,谷歌在今年宣布实现72个量子比特的原型机;英特尔在量子计算芯片上摩拳擦掌,在2018年6月宣布开发出了新款量子芯片,并已在摄氏零下273度的极低温度中进行测试;微软在2005年就已经投入研究,2018年的新计划是在五年内造出第一台拥有100个拓扑量子比特的量子计算机,并且将其整合到微软云Azure当中。

国内科技企业也在加紧追赶研发。除了前述的华为,阿里巴巴也在招兵买马,2015年就成立了量子计算的相关实验室,如今达摩院已经开始研究量子芯片;腾讯在2017年底启动了量子实验室,百度的量子实验室在2018年3月成立。

量子人工智能的“诱惑”

基于量子计算的神秘特性,其高效运算将在人工智能、医疗、军事等领域发挥作用。其中,人工智能和量子计算机的结合,是热门的应用场景,也是科学界近年来探讨较多的话题。

清华大学交叉信息研究院院长、图灵奖获得者姚期智在近期的一场演讲中就说道:“量子计算机之所以有很大的力量,一个原因是在原子上,量子物理能把经典数据进行指数级的压缩,达到计算结果,如果用普通计算机没法达到。(数据)指数级地在时间上的加速,空间上的压缩,这是一个很大的诱惑。”

在翁文康看来,量子计算和人工智能的结合比较自然。“我们可以利用量子计算去加速人工智能的应用。也有另外一个方向,就是利用机器学习的方法去解决量子信息、量子计算里面的问题,这两方面现在学术界里面都属于量子人工智能。有非常多的进展在这两年爆发,量子人工智能是比较令人鼓舞的。”

他进一步说道:“虽然在我们还没有研制出通用的量子计算机,短时间以内业界做的计算机可能量子比特的数目不多,但是它在某些方面已经超越了超算的能力。但是,人工智能很多应用,其实并不需要完美,结果是一个概率,可能到百分之八九十的准确性已经有很大的应用价值。我们利用量子计算机,可以发挥很大的作用,这是在学术界里面非常热门的课题。”

人工智能的三大要素分别是算力、算法和数据。而量子计算机在运算速度、处理数据的能力上相比经典计算机优越得多,运算速度指数级的增长无疑解决了现在AI算力缺乏的现状。

量子算法是不是能够让人工智能算法更上一层楼?这成为了科技界的重要问题。为此,NASA和谷歌就联合成立了人工智能实验室,微软也有量子人工智能研究小组,清华大学交叉信息研究院也包含了量子人工智能的研究。

不过,张学仓也表示:“量子计算是一场从根上开始的革命,也就是说它从量子的芯片,芯片的控制系统到整个量子计算机工程化的系统,到最上面的软件和算法,都需要很大的努力,都存在很多挑战。但是最大的挑战是怎么做芯片,一个是把芯片比特数做大,精度做得很高;另外一个针对不同的应用开发更多的算法,因为算法非常难理解。”

他还表示,量子计算机从硬件到软件到算法都需要提升核心技术。整体来说还没有到可以商业化的阶段,还有很多的问题需要解决,但是我们已经看到希望,在三到五年之内专用的量子计算机在其擅长的领域真的可以解决一些现在超算都解决不了的问题。(编辑:张伟贤)