算力的幻覺:量子計算為何無法擺脫內存瓶頸
撰文|徐令予
關於量子計算的爭論,大多在量子比特的數字遊戲與工程實現的泥潭中打轉。公眾敘事中默認了一個近乎迷信的前提:隻要處理器足夠快,算力便會如期而至。然而,這個在計算技術發展史中早已被證偽的命題,正借著量子的外殼重新還魂。
現代計算的戰場,不在於運算本身,而在於數據的“搬運”與“等待”。 過去數十年取得的算力紅利,其實主要來自數據調度與存儲架構的持續演進。英偉達的黃仁勳在2026年CES展會上強調指出:當前AI算力的瓶頸已從傳統的算術計算單元擴展到內存帶寬、數據移動效率及係統級延遲,這源於AI模型規模的指數級增長和物理AI對實時性的嚴苛要求。
本文並非試圖否定量子計算的研究價值,而是希望從計算體係結構與算力本體的角度,重新審視量子計算的技術承諾。文章將首先澄清“算力並不等同於處理器速度”這一常被忽視的基本事實,繼而討論量子計算在存儲與數據調度層麵所麵臨的結構性約束,從而為當前量子計算的爭議提供一個新的視角。
一、算力不隻是處理器速度,內存往往才是決定因素。
在關於計算能力的討論中,長期存在一個誤區:算力等同於中央處理器(CPU)的運算速度。這種理解或許符合人們對“計算”的樸素想象,卻並不符合現代計算機係統的真實狀況。當代計算計的性能瓶頸往往並不來自 CPU 本身,而是來自數據的存儲、調度與訪問。
這一事實是由數字計算機的基本結構所決定。經典的馮·諾依曼計算機結構,將計算係統明確劃分為處理單元、存儲單元以及連接二者的數據通道。程序與數據統一存儲於內存,處理器必須通過有限帶寬與內存交換信息。這一結構性安排決定了一個基本事實:處理器再快,也必須等待數據——這就是繞不開的“內存瓶頸”(Memory Wall)。

從更深一層看,現代計算對算力的巨大需求,並不源於對單一數據的反複計算,而是源於所需處理的數據規模持續增長。在計算複雜度研究中,問題的核心始終是當規模參數 (N) 增大時,係統如何應對由此帶來的運算、存儲與訪問的總體負擔。無論是數值計算、搜索問題,還是近年來迅速發展的機器學習,其難點往往並不在於“如何算得更快”,而在於“如何處理不斷增長的數據量”。
這一趨勢在大語言模型等人工智能係統中表現得尤為突出。當前主流模型的參數規模已達到數百億乃至上千億量級,模型訓練與推理的主要挑戰,早已不再是算術操作的速度,而是如此龐大的參數與中間狀態能否被有效存放、調動並高效訪問。正是在這一意義上,內存容量與存取速度,便成為了算力上升的天花板。
由此,現代計算機體係結構的核心進展,主要體現在緩存層級、內存帶寬優化、數據局部性設計以及分布式存儲等圍繞“存儲—計算協同”的工程創新,而非單純提升CPU 的速度。這一現實在當下的人工智能計算中體現得尤為清楚。在大規模模型訓練的工程實踐中,超過一半的時間與能耗並不發生在算術運算本身,而是消耗在參數與激活值的讀寫、不同存儲層級之間的數據搬運,以及跨節點同步等與存儲和通信相關的環節上。
由此可見,算力從來不是一個孤立的“速度指標”,而是一種係統能力。它取決於信息能否被穩定存儲、快速調度並反複利用。任何脫離存儲條件談論算力其實都是不切實際的空想。正是在這一意義上,理解內存在計算體係中的核心地位,構成了重新評估包括量子計算在內的一切算力承諾的必要前提。
二、量子計算仍然離不開經典內存,而且問題更嚴苛、更複雜。
量子處理器門操作速度的提升,並不能自動轉化為可持續的算力增長,算力是否能夠真正釋放,最終仍取決於數據能否被高效地保存、調度與訪問。量子計算不僅無法擺脫對經典內存的依賴,反而在數據存儲與調度層麵遭遇更為嚴苛的結構性約束。
首先,量子比特並不適合作為可擴展的“存儲設備”。與經典內存可以長期穩定保存比特不同,量子態天然易揮發:相幹性會隨時間衰減,誤差會在演化、控製與環境耦合中不斷積累。量子比特可以被用來承載短時的量子態演化,但若將其作為大規模、可長期保持、可反複調用的存儲介質,其物理基礎便會立刻變得異常脆弱;在這一意義上,“存得住”往往比“算得快”更難。
其次,即便從理論與工程兩方麵看,量子存儲本身也幾乎無法承擔經典內存的角色。理論上,量子不可克隆性意味著量子態不能被簡單複製:經典內存依靠複製實現的讀寫、備份與緩存,在量子態上不存在直接對應機製。工程上,量子糾錯雖然可以延長有效存儲時間,卻要求用成百上千甚至更多物理量子比特來編碼一個邏輯量子比特;在這種資源開銷下,試圖構造“幾十GB 量級”的量子存儲空間,在可預見的技術路徑上都沒有可行性。換言之,量子存儲既缺乏數據的讀寫機製,也缺乏容量可大規模擴展的基礎。
更關鍵的是,量子計算機的輸入與輸出仍然是經典數據:問題的描述、數據的裝載、結果的提取與驗證,都必須通過測量與經典控製係統來完成。
以上這三點共同決定了量子計算不可避免地依賴經典內存來組織與承載計算流程,因此經典內存也必然成為量子計算係統的瓶頸。更何況,量子處理器與經典內存之間的數據交換,不僅在速度與帶寬上受限,而且在接口、控製與測量層麵遠比經典處理器—內存通道複雜;這一“量子—經典邊界”本身,很可能成為嚴重製約整體性能的瓶頸中的瓶頸。
設想一種極端情形:量子處理器的運算速度趨於無限,算術操作的時間成本可以完全忽略,量子計算的總體算力增長依然非常有限。正如前文所述,在大規模計算任務中,超過一半的時間與能耗本就發生在數據移動與存儲相關環節。在這種情況下,處理時間即使被壓縮為零,係統總耗時中與內存相關的那一半是降不下來的。這意味著,量子計算機的總耗時不可能小於經典計算機的一半以下。因此,對於絕大多數的實際應用,量子計算機的整體算力在理論上不可能比經典計算機高出一倍以上。
因此,量子計算麵臨的關鍵挑戰並不隻是“讓量子門更快”或“讓量子比特更多”,而在於:它仍然必須依賴經典內存來組織與支撐計算,而量子比特自身又難以成為一種可擴展、且長期保真的存儲體係。在一個由數據規模驅動算力需求的時代,這一結構性矛盾決定了量子計算的許多宏大承諾,至少在可預見的技術路徑上,值得高度審慎地看待。
結論
綜上所述,量子計算的核心挑戰不僅在於量子比特規模或工程實現,更在於底層體係結構的深刻矛盾:算力最終需通過數據流動與存儲來兌現,而量子計算在這一維度上缺乏可擴展的基礎。
在數據驅動算力的時代,內存容量、帶寬與調度能力決定了算力上限。量子計算既無法擺脫對經典內存的依賴,又難以將脆弱的量子態轉化為持久、可複製、可擴展的存儲體係。這一底層缺失,讓所有關於“通用算力躍遷”的宏大設想,在麵對大數據計算任務時都顯得格外地虛幻。
為何這一命題在量子計算的敘事中被長期忽視?究其原因,正視內存瓶頸意味著必須承認量子計算在體係結構上存在無法克服的障礙,這對於量子計算的推動者無異於自斷生路,於是采用駝鳥策略成了他們唯一選擇。同時,由於量子計算仍處於概念演示階段,有足夠多的辦法把數據存儲與調動環節排除在係統之外,實質上就是把問題和困難留給未來。
然而,計算技術發展史昭示了一個殘酷規律:決定係統上限的結構性矛盾,從不在概念驗證期顯現,而隻會在走向真實應用時爆發。對量子計算而言,內存瓶頸並非是事後可以補救的工程細節,而是決定其能否跨越實驗室門檻的先決條件。任何脫離存儲與調度條件的算力承諾,終究隻是畫餅充饑而已。
延伸閱讀
[1] 量子計算機很可能永遠不會成功
徐令予 作於南加州(2026年1月15日)