股市暴漲熔斷:韓國人這次憑什麽贏麻了?
正解局
2026-05-12 23:09:46
今天讓全世界股民驚訝的一幕:韓國股市一開盤就暴漲。
韓國KOSPI 200指數期貨上漲5%,觸發熔斷機製,程序化交易暫停5分鍾。
韓國人一下贏麻了?
這就不得不說到,現在,連菜場的阿姨,都知道全世界的內存瘋狂漲價。
PC內存、服務器內存、SSD,價格都在往上走。
有數據,2026年一季度部分DRAM合約價環比漲了近83%,部分NAND產品價格更是漲了約160%。
其中,DRAM是動態隨機存取存儲器,就是平時常見的內存、顯存的底層存儲芯片。
NAND,就是斷電數據還在的U盤、固態硬盤的存儲顆粒。
對普通消費者來說,這是一條“電子產品漲價降配”的新聞。
但在產業鏈裏,它不隻是這麽看的。
真正的新聞是,韓國存儲廠商把AI時代最關鍵的一條通道,抓在了手裏。
這次韓國人贏麻了!
2026年一季度,老牌內存條廠商韓國SK海力士,交出了一份近乎離譜的成績單:營收52.5763萬億韓元(合2471億元人民幣),營業利潤37.6103萬億韓元(合1768億元人民幣),營業利潤率72%。
綜合KB證券、瑞銀、交銀國際等區間預測,SK海力士今年營收肯定破300萬億韓元了,淨利潤鐵定超萬億人民幣。
這是什麽概念?
華為2025年全球營收也隻是8809億元人民幣。
最近,關於“SK海力士韓國員工人均獎金將達610萬人民幣”的消息在社交媒體瘋傳,韓國人已經被投資理財顧問盯上了。
這麽一家重資產、強周期、曾經被視為“苦生意”的存儲廠商,以一己之力改寫了人類半導體曆史的天花板。
憑什麽?
事實上,它賺的不是普通DRAM周期的錢,而是AI時代的瓶頸稅。
什麽瓶頸?
不是普通DRAM,而是HBM(High Bandwidth Memory),即高帶寬內存。
SK海力士在財報裏說得很直白:業績創紀錄,是因為AI基礎設施投資擴張,帶動了HBM、高容量服務器DRAM和企業級SSD等高附加值產品銷售。
路透的報道更刺眼:SK海力士HBM銷售負責人在電話會上說,未來三年客戶對HBM的供貨需求,已經遠遠超過公司產能。
翻譯一下,就是:不是客戶在挑供應商,而是供應商在挑客戶。
連英偉達也被卡著脖子了。
那到底什麽是高帶寬內存HBM呢?
DRAM是動態隨機存取存儲器,是電腦、手機、服務器臨時存數據的“工作台”。
DDR、LPDDR、GDDR、HBM,本質上都屬於DRAM體係,隻是為不同場景下修改了架構和封裝。
不得不提到一點,就是我們電腦裏的CPU,擅長的是串行複雜任務,像一個超級學霸,但一次隻能幹一兩個事。
而負責圖形處理的GPU,像1萬個小學生,專為海量任務的並行計算設計。
AI計算基本都是重複簡單矩陣運算,完美適配GPU並行模式,比CPU快幾十上百倍。
因此,做了一輩子顯卡GPU的英偉達才有機會站到曆史風口上。
GPU的計算單元這些年跑得更快,也更容易通過增加晶體管、Tensor
Core、低精度計算、芯片麵積和功耗來把性能堆上去。
但正是因為GPU跑太快了,在AI訓練、推理和HPC(高性能計算)裏,很多工作負載已經明顯受製於內存容量、內存帶寬、片間互連和數據搬運效率,也就是常說的“memory
wall/內存牆”。
此前有種說法是,GPU有70%的時間在等數據。
有效算力能不能釋放,越來越取決於數據供給,內存帶寬就成了木桶最短的那塊板。
我們可以把內存帶寬想成高速公路的車流量。
頻率像車速,位寬像車道數。
普通內存想提高帶寬,通常靠提高車速;GDDR也是這個思路,車跑得越來越快。
但車速提到一定程度,就會遇到功耗、發熱、信號完整性這些問題。
SK海力士主要HBM產品係列及參數
HBM的作用,就不再隻是拚車速,而是直接把路修寬。
它把多層DRAM芯片像樓房一樣垂直堆起來,中間用TSV矽通孔打穿,把每一層連接起來,再通過先進封裝和GPU計算芯片放在同一塊中介層上。
像海力士現在最先進的HBM 4,可以堆疊12-16層。
這樣做的結果是,HBM離GPU非常近,數據線非常多,傳輸距離非常短。
單個HBM堆棧的3D堆疊結構
通俗講,GPU像一排火力全開的廚師,HBM像廚房和餐桌之間的傳菜口。
廚師再快,傳菜口太窄,菜端不過來,後廚就隻能站著等。
如果說傳統內存像從城外倉庫開卡車送貨,HBM就像把倉庫搬進後廚,並且開了幾千個窗口同時傳菜。
而為了工程上得以實現,HBM要和計算裸片一起設計、一起封裝、一起驗證,必須和GPU單元長在一塊。
AI狂潮中,所有人盯著英偉達H100、H200、B200,盯著GPU的算力、晶體管、有多少TOPS。
可HBM的層數、帶寬、功耗、散熱、封裝良率,會直接決定整顆AI芯片能不能量產、能不能穩定跑、能不能按時交給雲廠商。
如果拆開一張高端AI加速卡,你會發現,GPU計算核心隻是舞台中央的演員,圍在它旁邊的HBM,才是那條決定它能不能上場的供血管。
這就是“高帶寬”的真實含義。
英偉達B200 GPU采用的CoWoS 2.5D封裝結構示意圖
Epoch
AI對英偉達B200的成本拆解估算顯示,B200生產及物料成本約在5700至7300美元之間,中位數約6400美元;其中內存約占一半,HBM與先進封裝合計約占總單位成本三分之二。
所以不誇張地說,英偉達的命,有一截握在韓國人手裏。
AI產業的權力中心,正在發生一次關鍵遷移。
韓國不是突然贏的。
把時間線拉長,你會發現,HBM這門生意,本來就是韓國存儲工業幾十年攢出來的結果。
存儲行業有一個殘酷特點:技術曲線很陡,賺錢周期很短,虧錢周期很長。
全球存儲行業周期曲線(野村證券)
這跟LCD顯示行業特別像——
輸了,會虧到窒息。
贏了,才有資格進入下一輪。
韓國存儲芯片產業的起點,是赤裸裸的技術引進+逆向工程。
1983年李秉哲拍板,從美國美光公司花300萬美元購買了64K
DRAM的全套技術圖紙,然後拆解東芝的芯片進行逆向工程,挖了上百名日本工程師。
早年的現代電子,1984年從日本東芝引進256K
DRAM技術,1999年在韓國政府強製要求下合並LG半導體,2012年才被SK集團收購,真正走上正軌。
成就今天SK海力士的關鍵一躍,是2021、2025年,先後兩次交割,以90億美元收購英特爾NAND業務,獲得了3D
NAND技術和大連工廠,從NAND小透明變成和三星同台爭霸。
在存儲芯片這個行業,產能和資本才是真正的護城河。
技術差距最多6-12個月,但產能差距可以是3-5年。
1997亞洲金融危機時,三星虧損30億美元,裁員三分之一,但半導體研發預算一分不減,反而逆勢擴產30%。
2008年全球金融危機,DRAM價格暴跌90%,德國奇夢達破產。三星再次逆勢擴產,在2012年收購日本爾必達,日本徹底退出DRAM市場。
2022-2023年存儲寒冬,SK海力士單季度虧損超40億美元,但HBM產能不僅沒減,反而翻倍。
而且,HBM最早並不是為AI準備的,它在高性能計算、圖形和網絡設備裏已經演進多年。
SK海力士很早就參與HBM標準和量產路線,在HBM2、HBM2E、HBM3到HBM3E的迭代中不斷提高堆疊層數、帶寬和良率。
等2024年起AI需求集中爆發時,隻有SK海力士有足夠的HBM產能,緊密綁定英偉達這個大客戶,直接賺翻了天。
SK海力士中國無錫工廠生產線全景。圖源:SK海力士
這背後,韓國財閥+國家信用共同背書的“無限彈藥”模式,真的是嚇人。
2016-2025年,三星和SK海力士在存儲芯片領域的總資本開支超過5000億美元,是同行美光+鎧俠+西部數據總和的2.3倍。
2026年,SK海力士計劃資本開支70萬億韓元(約3360億人民幣),其中70%用於HBM;三星資本開支120萬億韓元,其中50%用於存儲板塊。
其中重點包括M15X產線、龍仁半導體集群基礎設施,以及EUV等關鍵設備。
CNBC援引Counterpoint數據稱,2025年第四季度,SK海力士在HBM市場份額約57%,領先三星和美光。
這背後不是一場短跑,而是一場國運、資本、工程組織能力和客戶協同的長跑。
SK海力士在過去經曆了6次全行業巨虧,今年這是把15年的利潤一把全賺回來。
這件事對中國真正刺痛的地方在於:
我們習慣說芯片卡脖子,但HBM把“卡脖子”往更深處推進了一層。
即使有了GPU,如果沒有高端HBM,AI芯片同樣跑不滿。
美國商務部BIS在2024年12月的新一輪出口管製裏,明確把HBM納入控製範圍,並稱HBM對大規模AI訓練和推理至關重要,是先進計算IC的關鍵組件。
對手也知道刀口在哪裏。
中國在普通DRAM上已經有長鑫存儲這樣的企業,雖然份額和技術代際仍在追趕,但至少解決了一部分“有沒有”的問題。
HBM不同,它不是把DRAM顆粒做出來就完事,它要求DRAM、TSV、先進封裝、熱管理、測試、EDA和客戶聯合驗證一起過關。
那怎麽辦?
還記得上個月,DeepSeek V4發布時,論文裏那行“小字注釋”嗎?
“受限於高端算力,目前Pro的服務吞吐十分有限,預計下半年昇騰950超節點批量上市,Pro的價格會大幅下調。”
這句話信息量太大了。
在去年9月的華為全鏈接大會上,華為輪值董事長徐直軍當時表示,華為自研了兩種HBM,分別是HiBL 1.0和HiZQ
2.0,同時發布了靈衢/UnifiedBus協議。
他還說,基於中國可獲得的芯片製造工藝,打造“超節點+集群”算力解決方案,持續滿足算力需求。
這句話很工程,也很中國。
別人有最先進單芯片、最高端HBM、最成熟封裝,我們沒有完全同等的條件,就不能隻在單點指標上硬碰硬。
中國方案更像是在山路上開車:發動機排量不夠,就要改變車隊調度、路線設計、換擋節奏和油料補給。
華為的超節點思路,就是把更多芯片通過高帶寬、低時延互聯組織起來,讓很多顆相對受限的芯片,在係統層麵盡可能像一台大機器工作。
換句話說,沒有先進光刻機,國內現在做不了高難度3D垂直堆疊的HBM,那就在平麵上用成熟2.5D
MCM/Chiplet平鋪封裝堆數量、堆位寬、堆總容量。
再靠自研內存控製器+靈衢互聯協議+內存池化軟件,把硬件物理上的帶寬、延遲短板,用架構和軟件強行補平。
內存顆粒逐步轉向長鑫存儲等國產供應商。
徐直軍提到的Atlas 950超節點,預計今年四季度上市,就是國產DeepSeek v4大模型,心心念念在等的那個。
這聽起來,多少有點悲壯。
中國AI算力的破局,不會是一夜之間把每個零件都做到全球第一,而是在被限製的工具箱裏,把係統做到能跑、能用、能擴、能持續迭代。
先解決有沒有,再解決好與壞。
先跑起來,再調速度。
這不是退讓,是工業追趕裏的基本紀律。
AI算力不是一顆芯片的勝利,而是一條供應鏈的合謀。
GPU負責算,HBM負責喂,封裝負責把兩者綁在一起,數據中心負責供電散熱,網絡負責把成千上萬張卡連成一台巨大的機器。
任何一個環節卡住,整條鏈都會降速。
AI產業鏈可分為上遊基礎層、中遊技術層、下遊應用層
以前我們說AI競賽,容易把它想象成天才科學家、算法論文和大模型參數種種。
現在再看,它更像一場工業戰爭:誰有晶圓廠,誰有封裝線,誰有HBM產能,誰有電,誰有機房,誰有調度十萬張卡的工程能力。
韓國存儲廠商這次賺瘋了,本質上是在收取“帶寬稅”。
大模型公司再會講故事,也要排隊等算力。
雲廠商再有錢,也要排隊拿GPU。
英偉達再強,要排隊買HBM。
結果,所有宏大的AI敘事,最後都落到一個樸素問題上:數據能不能及時送到計算核心旁邊?
送不到,就隻能等。
真正的卡脖子,從來不是一個零件,而是一套體係。
今天被卡在HBM,明天可能被卡在先進封裝,後天可能被卡在光互聯、EDA、材料……
每步入一個新的窄門,技術權力就會發生遷移,我們就麵臨新的難點。
補短板不能隻靠口號,也不能隻靠單點突破。
它需要長期資本、耐心工程、真實需求牽引,以及一次次並不光鮮的量產爬坡。
韓國人用幾十年證明了這一點。
AI時代最重要的資產,是能把數據、芯片、係統、軟件和製造組織起來的超綜合能力。
誰能把這件事做成,誰才真正握住AI的命門。
相比之下,美國人已經沉澱了一張半導體的全球供應鏈網絡。
我們將憑一己之力獨自完成。
道阻且長,行則將至。
○正解局是頭部的產業財經新媒體、專注於中國產業經濟與城市發展研究的財經研究型內容智庫機構,成立於2018年。正解局長期從產業視角分析城市競爭力、企業發展路徑與宏觀經濟趨勢,核心理念為“解讀產業,發現價值”。