美國哈佛大學研究團隊首次在一套集成量子系統中實現可擴展量子計算與量子糾錯所需的全部關鍵要素,向構建實用的大規模量子計算機邁出了決定性一步。最新成果發表于新一期《自然》雜志。
量子計算機可在單原子層面編碼信息,但長期受到量子糾錯這一核心瓶頸問題限制。哈佛團隊此次構建的新型量子系統,能夠在關鍵性能閾值以下檢測并清除錯誤。從多項性能指標來看,這些實驗達到迄今任何量子平臺的最高水平,為突破量子糾錯瓶頸提供了全新路徑。
量子糾錯被視為量子計算研制的關鍵門檻。與傳統計算機利用0和1編碼信息不同,量子計算機依托量子疊加與糾纏等特性,理論上能在數量極少的量子比特中存儲指數級的信息。一個由約300個量子比特組成的系統,其信息容量超過已知宇宙中的粒子總數。但量子比特極易發生退相干并丟失信息,因此降低錯誤率成為發展大型量子系統的前提。
研究團隊此次展示了一個由448個中性原子量子比特組成的“容錯”系統,能夠通過物理糾纏、邏輯糾纏、熵移除等機制實時監測并修正錯誤,并利用“量子隱形傳態”等技術實現量子態的無接觸傳輸。
為驗證該系統的可擴展性,團隊設計了包含數十層糾錯步驟的深度量子電路,將錯誤率壓低至關鍵閾值以下。在這一閾值范圍內,繼續增加量子比特不僅不會引入額外誤差,反而能進一步抑制錯誤。這一結果被視為量子糾錯領域30年來的重要進展。
谷歌量子AI團隊工程副總裁哈特穆特·內文評價稱,該成果出現在全球量子比特平臺競爭“極為激動人心”的階段,“向構建大規模、實用的量子計算機邁出了重要一步”。
友情鏈接: 政府 高新園區合作媒體
Copyright 1999-2025 中國高新網chinahightech.com All Rights Reserved.京ICP備14033264號-5
電信與信息服務業務經營許可證060344號主辦單位:《中國高新技術產業導報》社有限責任公司