近日,谷歌量子 AI 團隊公布其量子糾錯新進展,他們所構建的表面碼糾錯大幅降低了錯誤率,使得邏輯量子比特壽命高于物理量子比特,顯著延長了量子信息的存儲壽命。這項在量子工程領域具有里程碑意義的工作證明,谷歌團隊依然在量子計算機競賽中占據領先地位。
撰文|無邪
四年前,我曾翻譯過一篇發表于 Science 上的評論文章《量子計算的下一個超級大挑戰》,這個超級大挑戰正是量子糾錯。彼時正值谷歌量子 AI 團隊(Google Quantum AI)剛剛完成“量子霸權”的演示,引發全球關注。四年來,全球多個量子計算的頂級團隊在向這一超級挑戰發起沖擊,而谷歌量子 AI 團隊,無疑是其中的先鋒隊。
最近,谷歌團隊在 arXiv 上貼出了他們的最新成果:低于表面碼閾值的量子糾錯(Quantum error correction below the surface code threshold)[1]。他們在一片包含 105 個量子比特的芯片中實現了碼距為 7(d=7)的表面碼糾錯,同時在一片 72 量子比特芯片中實現了碼距為 5(d=5)的表面碼糾錯及其實時解碼。兩種情況下均超過糾錯的“盈虧平衡點”,也就是編碼后的邏輯量子比特中的信息存儲壽命,高于所有參與編碼的物理量子比特的壽命。
具體來說,碼距為 7 的邏輯量子比特壽命達到了 291 微秒,而所有參與編碼的量子比特平均壽命為 85 微秒,最高 119 微秒。折算下來,量子糾錯讓量子信息的存儲壽命延長了 2.4 倍。這是一項非常了不起的工程結果,大幅提升了表面碼量子糾錯的工程可行性,為未來實現具備實用價值的邏輯量子比特注入了強大的信心。我認為這一工作的意義,不亞于當年的“量子霸權”,甚至也不亞于 2023 年中性原子體系中所取得的量子糾錯成果。下面我就嘗試講解一下這一里程碑意義的進展,以及背后的一些技術原理。
現實中的量子比特,或者叫物理量子比特,總是會因為各種原因而出錯,比如莫名其妙飛過的光子、材料中的某個缺陷,甚至可能是來自遙遠宇宙深處的一束宇宙射線。錯誤會在進行量子計算的過程中累積、傳遞,導致最終的結果不可用。舉例來說,現在的兩比特糾纏門錯誤率在百分之幾到千分之幾的水平:假設量子門的平均錯誤率為千分之一,那執行 5000 個量子門,得到正確答案的概率將低于百分之一;執行 10000 個門,正確的概率將低至十萬分之幾;執行 20000 個門,這個概率將低于億分之一(這是一個非常粗略的估算,實際的錯誤累積、傳遞和關聯的情況要復雜得多,正確率將以更快的速度衰減)。這將大幅抵消量子計算所能帶來的加速能力,令其威力無法施展。
量子糾錯理論的出現,讓我們重新燃起了希望。利用冗余的量子比特,以某種方式將它們編碼在一起,可以診斷出哪里出錯了。如果錯誤足夠“稀疏”,同時又有某些手段及時糾正出錯的比特,我們就能夠實現量子糾錯 —— 得到理想的、不會出錯的量子比特,上面說的錯誤累積也就不會出現,我們總能得到正確的計算結果。
由于這種糾錯編碼的量子比特的信息并不是存儲在某個或某些具體的物理量子比特上,而是以一種糾纏約束的、抽象的形式存在,因此我們將其稱為“邏輯量子比特”。早在上世紀末,量子糾錯的理論就開始發展:最早的糾錯碼由 Shor 和 Steane 獨立提出,接下來 Calderbank、Shor 和 Steane 又共同給出了糾錯的一般性理論,即著名的 CSS 碼,奠定了量子糾錯的基礎。隨后的一個重要進展是穩定子(stabilizer)概念的提出,為這一領域提供了全新的洞察力,后續很多有用的量子糾錯碼都是基于這一概念發展的,包括著名的表面碼。這也正是谷歌量子 AI 團隊一直堅持采用的技術。
表面碼屬于更廣義的“拓撲碼”中的一種,這一編碼家族的基本設計理念,是將多個重復的糾錯單元“拼接”起來,這種模塊化的設計方法使得拓撲碼具有良好的可擴展性,符合工程化實現的要求。表面碼只需要近鄰耦合,對錯誤率的閾值要求,或者說“門檻”比較低,盡管其編碼效率不高,但已成為目前最具工程實現價值的編碼方法之一,特別適合于超導量子芯片。
表面碼的錯誤率閾值要求大概在百分之一的水平,此次谷歌量子 AI 團隊所用到的兩塊芯片,單比特門的錯誤率達到了萬分之五的水平,兩比特門達到了千分之四,讀取(探測)錯誤率則達到了千分之八的水平。不過,對于復雜的量子系統,這些單一的指標已經很難描述系統的整體錯誤情況,正如前面說的,真實的錯誤比簡單的錯誤累積要復雜得多。因此,谷歌團隊又引入了一種更適合描述表面碼錯誤情況的“權重-4 探測概率”(就當作是另一種表達系統錯誤的“指標”)。對于 d=7 的體系,這個值是 8.7%。這表明團隊在量子芯片的加工方面有了顯著的提升,細節自然不會公開,不過他們提到這歸功于“能隙剪裁(Gap-engineering)”技術的應用。無論如何,對于百比特規模的量子計算芯片而言,這已經代表了頂級水平。
還有幾個亮點值得提一下,一個是實時解碼技術。表面碼量子糾錯需要不斷地制備穩定子,對輔助量子比特進行測量并重置,然后再重復這一過程。在這個過程中,我們需要對測量結果進行解碼,以保持對錯誤癥候的追蹤,并在需要對邏輯量子比特進行操作時及時糾正錯誤。顯然,實時解碼對于實用的容錯量子計算是必要的,不過對解碼器的性能也提出了極為苛刻的要求。特別是超導量子體系,因為門執行的速度太快了,上述一個周期將在 1 微秒左右完成,這意味著需要在同樣的時間內完成解碼。正是這個原因,過往的量子糾錯實驗,一般是將測量數據先存起來,之后用一個離線解碼器處理。這次谷歌團隊首次在 d=5 的糾錯流程中實現了長時間的連續實時解碼,在一百萬個周期下,解碼器的平均延時為 63 微秒,沒有表現出延時隨周期數逐漸增長的情況,表明解碼器能夠跟上糾錯碼的執行節奏 —— 大概是每周期 1.1 微秒。實時解碼器會帶來一定的性能下降,不過仍能保持一個 2 倍以上的錯誤抑制系數。團隊并沒有在 d=7 的糾錯碼中應用實時解碼技術,表明其中的挑戰性是非常大的。未來如何在更大碼距的糾錯碼中實現實時解碼,將一直是一個極富挑戰的技術難題。
另一個亮點是團隊為了試探系統的錯誤率背景極限,測試了碼距為 29 的“重復碼”—— 它可以看作表面碼的一維情況,它不能同時偵測所有的 Pauli 錯誤(指錯誤可以表示為 Pauli 矩陣的線性組合;舉例來說,量子態繞 X 或 Z 軸翻轉了 180 度),只能偵測比特翻轉或相位翻轉中的一種。測試結果表明,在碼距達到大約 25 之后,邏輯錯誤率就飽和了,大概為百億分之一(10-10)的水平。團隊發現這一背景錯誤率來源于大約每小時發生一次的不明來源的關聯錯誤。而在之前的芯片上,這個錯誤率背景是百萬分之一,團隊認為這是由于大概幾十秒一次的高能事件,也就是宇宙射線轟擊芯片所導致的。因此,這有可能成為未來量子糾錯技術的一個新課題。
總而言之,這是一個非常了不起的工作,谷歌再次證明了他們頂級的量子計算工程技術能力。作為同行,我既感到興奮,也感到憂慮。感到興奮,是因為這是朝容錯通用量子計算邁出的重要一步,是大量量子工程技術的系統性進步,讓全世界看到了更多的希望。感到憂慮,則是站在國家角度,這有可能意味著在量子計算領域中美之間的差距在無形中拉大。要知道,谷歌僅是美國量子計算的頂級團隊之一,IBM、麻省理工學院等同樣具備類似的能力。在現在的階段,這種能力往往表現在系統工程方面,而非科學問題。我們以谷歌、IBM 等團隊作為技術標桿,卻少有思考他們是如何組織,如何權衡與協調工程技術與科學問題之間的關系,如何讓優秀的工程師與科學家協同攻關,等等。從這篇論文的作者結構來看,這是一項大型的工程合作典范,除了谷歌量子 AI 團隊,還有 DeepMind 團隊、馬薩諸塞大學、加州大學圣巴巴拉分校、康涅狄格大學、奧本大學、蘇黎世聯邦理工學院、耶魯大學、麻省理工學院等共 13 家單位 / 團隊,參與人數超過 200 人。這樣的大規模合作,在中國要如何發生呢?如果我們不轉變思維,著力打造工程導向、企業化組織的新型團隊;如果我們遲遲沒有具有大胸懷、擁有頂級號召力的科學家站出來;如果我們的科技激勵機制仍以數文章,拼 Nature、Science 為核心導向;如果…… 或許還有很多如果;再疊加上歐美持續對我們的人才和技術限制,在量子計算工程方面,我們可能很難破局。
我們需要勇氣,我們需要定力,我們更需要團結。我自不堪,唯愿有真國士出,領一批優秀的工程師,和各地卓越的科學家,向實用量子計算踔厲前行,走出堅實的中國步伐。
后記:就在稿子編輯的這幾天(9 月 10 日),微軟藍天量子(Microsoft Azure Quantum)團隊首次在催化反應手性分子模擬中,演示了“端到端”的高性能計算(HPC)、量子計算和人工智能組合 [2]。在量子計算部分,他們采用了 C4 碼糾錯保護的邏輯量子比特來進行基態制備,而不是物理量子比特??梢娏孔蛹m錯將快速成為量子計算工程技術的主戰場,而我國的量子計算工程能力急需提升以應對這些競爭。
參考文獻
[1]https://doi.org/10.48550/arXiv.2408.13687
[2]https://arxiv.org/pdf/2409.05835
本文來自微信公眾號:微信公眾號(ID:null),作者:無邪
本文鏈接:http://www.www897cc.com/showinfo-26-114368-0.html谷歌量子糾錯取得重要突破:邏輯量子比特壽命大幅延長
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 智能汽車,進入「紅米時刻」