近期,美国普林斯顿大学研究团队在《自然》杂志上发表一项新成果:他们将量子计算机的“脑细胞”——超导量子比特的“寿命”(即相干时间,指量子比特维持其量子叠加态的有效时间)提升至超过1毫秒。这是目前实验室最佳版本的3倍、业界标准的近15倍,也是10多年来量子比特寿命的最大提升。这一成果有助于突破量子比特信息保存时间太短的核心瓶颈,向实现可靠的商用量子计算机迈出关键一步。
量子计算机的基本信息单元是量子比特。与经典计算机中的比特只能表示0或1不同,量子比特可以同时表示0和1,即量子叠加态,如同一枚快速旋转的硬币,在停下来之前同时具备正面朝上和反面朝上的状态。正是这种特性,赋予了量子计算指数级的并行能力:50个量子比特理论上可同时处理250(约1000万亿)种状态。然而,量子叠加态极其脆弱。一旦受到环境噪声、材料缺陷或热扰动等干扰,量子信息便会迅速“退相干”,导致计算出错甚至失败。因此,量子比特的“寿命”直接决定了它能完成多少次可靠操作——这是衡量量子处理器性能的核心指标之一。
过去十余年,主流超导量子比特多采用蓝宝石基底与铝电路组合。但金属铝表面存在大量微观缺陷,会捕获能量、引发损耗,严重限制相干时间。此次普林斯顿团队的突破,正源于对这一“老配方”的彻底革新:以高纯度硅基底替代蓝宝石,并以金属钽取代铝制作量子电路。钽的晶体结构更致密,表面缺陷密度显著低于铝,从而大幅减少能量损失;硅则是成熟的半导体材料,能提高制造一致性且便于规模化生产。他们攻克了“在硅上高质量生长钽薄膜”这一长期技术难题,实现了材料界面的原子级平整。实验结果显示,新型钽—硅量子比特的相干时间超过1毫秒。别看它短,却足以让每个量子比特在“退相干”前完成更多关键运算,为后续纠错和复杂算法的运行提供宝贵的时间窗口。
整体来看,量子计算机的性能取决于两个核心因素:系统中量子比特的总量以及每个比特在出错前能执行的运算次数。2019年,谷歌推出“悬铃木”量子芯片,以53个量子比特首次实现“量子优越性”;2025年3月,中国科学技术大学潘建伟院士团队发布超导量子计算原型机“祖冲之三号”,集成105个超导量子比特,在特定任务上的运算速度比最强超级计算机快千万亿倍。不过,即便拥有百个物理比特,将错误率降至足够低的水平仍是目前量子计算机真正释放其算力潜能亟待突破的关键。因此,延长量子比特寿命、降低错误率,与增加比特数量同等重要。此次普林斯顿团队的研究主要解决了单个量子比特的寿命问题,而中科大在量子纠错领域也取得里程碑式的突破。2025年12月,基于107比特超导量子处理器“祖冲之3.2号”的相关结果发表,潘建伟院士团队在量子纠错方向上实现了“越纠越对”的重大进展。
尽管硬件发展取得突破,量子计算迈向广泛应用仍面临多重挑战。首先,技术路线仍较分散。超导、离子阱、光量子、中性原子等路径各有优势:超导易集成但需极低温,离子阱相干时间长但扩展难,光量子适合通信但难以存储。如何整合各类研发资源、打造最优方案,仍需付出大量努力。其次,软件生态与应用场景仍不明朗。除少数领域如量子化学模拟、组合优化外,尚缺乏能充分发挥量子优势的“杀手级应用”。多数企业仍在探索“量子计算能做什么”,而非“如何用量子计算解决问题”。再者,跨学科人才非常稀缺。既懂量子物理,又熟悉金融、制药或人工智能(AI)应用的复合型人才较少,制约了技术向产业的转化。
有分析认为,通用容错量子计算机仍需10到20年。但在那之前,量子计算可通过“量子—经典混合架构”创造早期价值。例如,在药物研发中,用经典计算机处理大部分流程,将分子能级计算等核心环节交由量子协处理器完成,通过算力互补,发挥各自优势,实现渐进式升级。同时,量子计算与AI的融合正成为新突破口。一方面,AI可用于优化量子控制脉冲、提升量子门保真度;另一方面,量子算法有望加速机器学习训练过程。这种双向赋能,或将成为量子技术落地的重要跳板。
回望量子理论诞生百年来的历程,量子计算正不断拓展人类解决复杂问题的边界。相信未来有一天,医生将用量子模拟设计出治愈罕见病的新药,气候科学家将借助量子算法精准预测碳循环路径,普通人将因更高效的电池或更智能的电网而受益,神奇的量子计算机将极大造福人类社会。