量子计算机的里程碑时刻,《流浪地球 2》MOSS 照进现实

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

大模型和生成式 AI 兴起之后,行业对算力的诉求空前绝后——大模型的训练和推理过程都要算力,比如,Open AI 的 GPT-3,就要用 500 片英伟达 H100 芯片,跑一小时才得以训练完毕。

如何提升计算机和芯片的算力,这是人类 科技 文明向前发展的关键拷问。

在过去,答案是通过每 18 个月翻倍硅片上晶体管数量来实现,但在如今摩尔定律趋于极限的情况下,行业中除了探索 Chiplet 这种用三维方式堆叠晶体管的路线外,一条更长远的路径探索是量子计算。

量子计算机尽管尚且处于早期的理论研究阶段,但在近期的 AI 热潮中,行业研究进展颇快。

在 AI 大热的当下,尽管谷歌IBM 在 AI 上的进展比 OpenAI 缓慢了许多,这两家大公司从不缺少弯道超车的方法。自从四年前双双宣布实现 " 量子霸权 " 之后,这两家公司最近又纷纷掀起霸权争夺战,宣布达到 " 量子计算里程碑 "。

谷歌这边, 他们宣称其量子处理器只用了 6 秒钟的时间,就完成现在世界上最先进的超级计算机耗时 47 年才能完成的计算量 。于此同时,他们的量子计算量也到了显著的提升,从四年前的 53 个量子比特量,扩充到了如今的 70 个, 向 100 量子比特攀登。

IBM 对于量子比特数的执念比谷歌更强。

今年 6 月份,IBM 宣布实现了一项突破,可以在 100 个量子位的规模上,产生更精确的结果。量子态不稳定,量子纠错是横在行业面前的大山,因此,IBM 还《自然》期刊上宣布开发出了一种 " 错误缓解 " 的方法,大大降低了量子计算的出错率。

此外,近期还有消息称, IBM 将在今年晚些时间推出量子比特超过千位的处理器。

而在这轮新的计算机革命中,国内不再是过去的追赶者姿态。在量子计算领域,国内公司步伐很快。5 月份, 国内 创业 公司 " 玻色量子 " 也发布了其自研的 100 量子比特相干光量子计算机。

" 只有真正解决了算力问题,让算力和 AI 技术结合,未来才能催生下一次工业革命 ",一位行业人士表示。

量子正掀起一场算力革命

量子看似玄幻,但正在隐秘掀起一场算力革命。

在物理学中,量子是参与相互作用的任何物理实体或物理属性的最小基本单位。这意味着,物理性质的大小只能呈现由单个量子的整数倍组成的离散值。例如,光子是特定频率(或任何其他形式的电磁辐射)的单量子光。类似的,原子内电子的能量是也量子化的,并且只能以某些离散值存在。

在二十世纪初,普朗克开创了量子这一理念,自此以后深刻地影响了物理学的发展。时至今日,量子力学已经成为整个物理学的基础理论。

量子力学中有很多与经典物理学中完全不同的特性,有的甚至是反直觉的,比如波粒二象性、不确定性、量子叠加、量子纠缠等等。这些特性会妨碍现有的电子计算机进一步提升算力,使得摩尔定律失效。

那么,能否尝试利用这些量子特性,来构建模拟量子系统的计算机?这是 1981 年,诺贝尔物理学奖得主理查德 · 费曼在一次演讲中提出来的巧思,拉开了人类对量子计算的探索序幕。"

可以用计算工具的演变,来简单理解量子计算。

人类最早所使用的绳结和算盘,便是一种最简单的计算单元。人们每次增加或者减少一个绳结和珠子,即代表加法减法的计算,是一次独立的运算。

但当人类进入半导体时代,晶体管的计算过程更简便——一次通电和断电分别代表着数学上 0 和 1,不同的 01 组合,代表着不同的代码,又进一步代表着不同的执行指令。晶体管密度增加, 支撑的计算数据量变多了,演变成了现在各式的计算终端,比如笔记本电脑 / 手机 / 可穿戴设备等等。

量子计算机的里程碑时刻,《流浪地球 2》MOSS 照进现实

到了量子计算机时代,量子由于叠加态的特性,能够记录信息的形式更复杂。

简单而言,它不仅可以代表晶体管所能够记录的 0 和 1,可以代表单独的 1,单独的 0,甚至还可以是不同组成的 0 和 1,比如 20% 的 0 和 80% 的 1。需要说明的是,这只是一个非常简单化的比拟,实际上涉及的数学比这复杂的多。

一位行业人士向 36 氪介绍,简单来说,量子计算就是通过量子的叠加态来提升算力。如果说一个量子有 M 个状态,那 N 个量子就有 M 的 N 次方种状态。这意味着,整个量子系统有着指数级增长的希尔伯特空间,来模拟复杂的系统运算。

可以这么想象, 如果经典计算机的计算过程可以看做是一项单一乐器的奏鸣曲,那量子计算机则更像是一曲错综复杂的交响乐。

一组简单的数据可以来理解量子计算机和原来经典计算机的计算能力差别。

苹果 的一颗 M2 芯片总共塞下了 200 亿个晶体管,而当下量子计算机最多不过塞下 100 个量子比特;但以国内此前发布的 " 祖冲之二号 " 为例,这台 66 个量子比特的计算机,数据处理速度已经是现存最快的超级计算机的一千万倍之多。

谷歌和 IBM 在内的公司,对量子计算机的攻坚,本质上打响一场算力革命。

投石问路,群雄逐鹿

越是终极的技术,自身的天花板也越高。

科学家们随即发现,量子计算要真正落实到硬件上,难度巨大。这因为, 量子所构建出来的叠加态非常脆弱 ,在运行过程中很容易被外界所干扰——只要出现一丝噪声 / 光线 / 温度,都会摧毁量子的稳态。

这为科学家们提出了一道难解之谜:要加大计算量级,就要努力保证又更多的量子的相互纠缠。但是,科学家们又得将量子剥离出有分子原子的复杂的环境,以减少对量子叠加的影响。

在行业早期的探索阶段,量子计算机的制备方式百花齐放。不比半导体制备只有光刻机一种明确路径, 目前,量子计算机的主流路线包括超导量子 / 光量子等等。

超导量子路线的火药味,是被 IBM 和谷歌这两家点燃的。2019 年,IBM 最早推出了 50 位量子比特位的量子计算机 "IBM-Q",几个月之后,谷歌也宣布推出比 IBM 的量子计算机再多出 3 个量子比特位的 " 悬铃木 " 计算机,并且宣称其性能超过了传统电脑,实现了 " 量子霸权 "。

谷歌的这种做法,恰好也揭示了在量子计算行业早期的混沌乱象。

彼时的 IBM 随即甩出一份长长的说明打脸谷歌——在他们的表述中,谷歌的操作充斥着局限性,比如只是 设定了特定问题和特定条件,运行了演示性的算法 ,甚至,若用经典计算机转换算法,也实现和谷歌这个量子计算机同样的效果,甚至成本更低效果更好。

不过,这起 " 量子门闹剧 " 并未阻挡这两家的进发,两家后续在量子比特数,量子纠错等方面还在持续攀登。

量子计算机的里程碑时刻,《流浪地球 2》MOSS 照进现实 在两家厂商的交锋中, 国内厂商也不甘示弱。仅仅在 2 年后,国内也发布了其 62 量子比特位的超导计算机 " 祖冲之号 "。

超导量子路线最大的优点是,量子比特本身相对更容易控制。但缺点也相当明显。玻色量子创始人 &CEO 文凯博士向 36 氪评价,超导量子路线对环境的要求近乎苛刻——需要在接近绝对零度的超低温环境下才能实现,目的是为了降低系统中的原子和分子热运动带来的噪声干扰。同时还要屏蔽所有外界的电磁干扰,包括宇宙射线的干扰等。

而未来的隐忧是,随着其量子比特位数一步步突破,对环境的要求也会愈高,将带来 更大的物理学挑战 。如此苛刻的环境要求,未来也将反过来限制计算机的运用。

行业的转机是,当 2022 年的诺贝尔物理学奖把奖项授予阿斯派克特等人的量子光学研究成果时,光量子随即成为成为行业中另一条冉冉升起的明星路线,而这 目前这也是国内大部分厂商选择的突围路径

比如,此前中国科学技术大学就曾经使用光量子路线,开发出了能够支持 76 个光量子比特位的计算机 " 九章 "。

文凯表示,光量子路线最大的特点是,无需超低温环境, 在环境温度下就能运行。 但缺点则是,光量子的操控难度更大,要制作成纠缠态并不容易,而一旦突破控制的难题,普及的速度也会加快。

可以说,光量子路线门槛高,未来应用的空间也更大。

今年以来,资本也在为光量子路线加紧下注。2023 年 2 月,加拿大光量子计算公司 Xanadu 获得加拿大联邦政府 4000 万美元的亿元融资;一个月后,美国光量子计算公司 PsiQuantum 获得了英国政府科学创新和技术部(DSIT)的 900 万英镑的资金支持。

除此之外,还有厂商尝试探索其他的路线。比如,以 D-Wave 公司为代表的厂商则是专用量子计算架构的支持者,美国半导体厂商厂商霍尼韦尔选择的是离子阱方案,微软则是从拓扑量子比特路线切入。

不同的路线,各有优缺点,行业目前对于哪条路径最佳, 尚未形成压倒性的判断。 一位行业人士评价," 目前尚且处于群雄逐鹿的状态,但未来 谁先突破 1000 量子比特位的大关,意味着谁将从中胜出,走向下一个里程碑 "。

向 1000 量子比特迈进

人们近期对量子计算机最直观的感受是,今年上映的《流浪地球 2》中那台无所不能的 MOSS 计算机。科幻电影最大魅力在于,当中的所有天马行空的想象大部分在现实中实现,但现实情况是,量子计算机目前距离实际应用落地还有很远的距离。

前述行业人士表示,量子产业未来将分为三个阶段,当下正处于量子启发阶段。未来,行业会进入专用量子计算的第二阶段,在这个时期中,人工智能光子处理器等在内的工具会发展出来。到了第三阶段,行业将进入量子计算时代,大量通用量子人工智能得以发展。

量子计算机的里程碑时刻,《流浪地球 2》MOSS 照进现实 在这个过程中,100 量子比特和 1000 量子比特,分别是行业中两个关键的门槛。

文凯向 36 氪表示,尽管当下部分 100 量子比特数以内的量子计算机在某些问题上已经能够展示超高的计算速度,但正如谷歌此前的 " 量子门事件 " 的启示,量子计算机并不是无所不能的,在部分问题的计算上,经典计算机转换算法也能够实现。

而只有当到行业真正超越 100 量子比特时,才能真 正体现出量子计算机的优越性 。此外,1000 量子比特是下一个大关,这意味着量子计算机更能接近 商业 化应用可能, 算力更大,出错率更小。

在可见的未来,量子计算将用在千行百业中,包括人工智能,生物医药,通讯加密,光互联,安全和教育等等。目前,行业中 已经有厂商推出了 FinQ 量子 金融 整体解决方案,以及量子 AI 生物制药,量子教育解决方案 等等。

在当下火热的人工智能大模型中,量子计算机也有与之结合的可能性。

一位行业人士向 36 氪举例:一旦大模型数据量翻 100 倍,映射到经典计算机上时的数据量并不是线性增加的 100 倍,而是指数性的一万倍,这意味着需要占用更多的计算机算力。若使用量子计算机,映射到计算机上的数据量也只有 100 倍,也就是说,量子计算机将起到压缩模型,降低对计算带宽的要求。

但要想实现产业化,如何一步步从理论优越性走向实用优越性,是量子计算机的重中之重。

回溯过去,经典计算机技术的成熟和普及一共用了 40 年。而量子计算机的光量子路线的启发也才 2 年。尽管量子计算机距离落地还有很远的路要走,但已经在一点点靠近黎明了。

来源:36氪

随意打赏

提交建议
微信扫一扫,分享给好友吧。