個人資料
正文

光模塊的第二輪牛市:從配套環節到算力核心

(2026-03-21 02:45:27) 下一個

當 AI 算力的瓶頸從芯片轉向互連,市場的主線也隨之遷移光模塊不再是配角,而是下一輪算力戰爭的核心基礎設施。

過去兩年,資本市場的聚光燈幾乎完全打在 GPU 上,英偉達的股價走勢成為了 AI 信仰的風向標。

然而,隨著集群規模的指數級擴張,一個被忽視的物理定律開始顯現:算力越強,對傳輸帶寬的渴求就越近乎貪婪。

當計算單元之間的數據吞吐無法跟上計算速度的提升時,再強大的芯片也隻能在等待中空轉。

此刻,光通信產業正站在一個曆史性的轉折點上,它不再僅僅是通信網絡的附屬品,而是決定 AI 集群效率的生命線。

OFC 的真正信號

AI 正在重構數據中心的連接方式

如果說過去兩年的 AI 行情由算力芯片定義,那麽本屆 OFC Conference(光纖通訊展覽會)釋放的最強信號在於:算力本身已經不再是唯一瓶頸,連接算力的能力,正在成為新的限製因素。

這一變化並非漸進式的改良,而是結構性的重構

隨著大模型訓練和推理規模持續擴大,數據中心內部的流量呈指數級增長。在千卡甚至萬卡集群中,GPU 之間的通信頻率極高,任何微小的延遲都會被放大為整體訓練時間的顯著增加。

傳統以電互連為主的架構,正在麵臨功耗、帶寬和延遲的多重瓶頸。

銅纜雖然在短距離內成本較低,但隨著傳輸速率突破 112Gbps 甚至 224Gbps,電信號的衰減和發熱問題變得難以忽視。也正因此,光進銅退的趨勢開始從長距離通信,迅速向數據中心內部滲透,甚至延伸到了機架內部。

在這一背景下,兩條技術路線的分歧被推向前台:

一是 CPO(共封裝光學),試圖將光模塊直接嵌入芯片封裝,以縮短電信號傳輸距離,降低功耗;

二是可插拔光模塊,繼續沿用模塊化路徑,但不斷提升速率與密度,從 400G 向 800G 乃至 1.6T 演進。

市場此前普遍存在一種線性思維,認為 CPO 會快速替代傳統方案,從而引發對傳統光模塊廠商生存空間的擔憂。但 OFC 給出的答案更加複雜且務實:CPO 不會全麵替代,而是與可插拔模塊長期共存。

這是因為 CPO 雖然在功耗上具有優勢,但在維護性、良率和供應鏈靈活性上仍存在挑戰。一旦光引擎損壞,整顆昂貴的ASIC芯片可能隨之報廢,這對數據中心運營商而言是難以接受的風險。

這意味著,行業並非技術革命一刀切,而是進入一個更長周期的漸進升級階段。可插拔模塊在未來 3 到 5 年內仍將占據主導地位,尤其是隨著 1.6T 產品的放量,傳統架構的生命力被進一步延長。

對投資者來說,這一點至關重要因為它意味著需求不會被單一路徑鎖定,而是多條技術路線共同拉動增長。無論是 CPO 還是傳統可插拔,核心增量都在於光的用量提升,而非形式的簡單替換。這種技術路線的確定性,為產業鏈上遊提供了更為穩健的業績能見度。

Lumentum新高背後

供給側正在迎來結構性緊缺

在這樣的產業背景下,Lumentum 股價重回曆史高位,就不再隻是情緒驅動,而是供需邏輯的直接反映。作為光通信器件領域的全球巨頭,其業績指引往往被視為行業景氣度的晴雨表。公司給出的幾個關鍵數據,本質上已經指向一個清晰的結論:

到 2026 年底,EML(電吸收調製激光器)產能將提升超過 50%;磷化銦(InP)擴產已推進約 40%;到 2030 年,AI 數據中心對 InP 的需求年複合增長率預計達到 85%。

這些數字的核心含義隻有一個:光通信的關鍵材料與器件,正在進入供給約束階段。

這與此前 GPU 的行情高度類似當需求爆發時,真正決定價格與利潤的,從來不是終端產品,而是上遊最稀缺的環節。在光模塊產業鏈中,EML 與 InP 正是這樣的卡脖子資源。

磷化銦襯底的生產難度極高,全球 capable 的供應商屈指可數,擴產周期長達 18 到 24 個月。

這意味著,即便下遊需求瞬間爆發,上遊材料的供給也無法立即響應,從而形成階段性的供需錯配。這種錯配往往會帶來議價能力的提升,龍頭廠商有望在量增的同時享受價穩甚至價升的紅利。

更重要的是,與傳統通信周期不同,這一輪需求並非來自運營商資本開支,而是來自 AI 數據中心。

傳統電信市場受宏觀經濟影響較大,周期波動明顯;而 AI 基礎設施建設屬於科技巨頭的戰略性投入,具有更強的確定性與持續性。穀歌、微軟、Meta 等雲廠商的資本開支指引不斷上調,直接鎖定了對高速光器件的長期需求。

換句話說,Lumentum 的新高,不是周期反彈,而是:新周期的起點。

這種由技術迭代驅動的需求增長,比單純的產能擴張更具韌性。對於產業鏈而言,能夠掌握核心芯片自研能力的企業,將在這輪供給側緊缺中獲得最大的彈性。

這也解釋了為何市場開始重新審視那些擁有芯片垂直整合能力的光模塊廠商,它們的估值邏輯正在從組裝加工向核心器件切換。

光模塊牛市的本質

從配套設備到算力核心資產

市場過去長期低估光模塊,一個根本原因在於:它被視為算力的附屬品,而不是算力本身的一部分。

在傳統認知中,光模塊隻是負責傳輸數據的管道,價值量遠低於負責計算的 GPU。但這一認知正在被徹底改寫。

隨著 AI 模型規模擴大,數據中心內部通信量甚至超過計算本身。在大規模分布式訓練中,顯卡之間的數據同步時間往往占據了總訓練時長的相當比例。如果網絡帶寬不足,昂貴的 GPU 集群就會陷入等待狀態,造成巨大的算力浪費。因此,光互連不再隻是傳輸工具,而是決定係統效率的關鍵變量。

在這一框架下,像OCS(光路交換)這樣的新技術開始崛起,其本質是進一步提升網絡靈活性與利用率,降低整體算力成本。傳統的電交換需要光 - 電 - 光轉換,功耗高且延遲大;而 OCS 直接在光域進行交換,能夠顯著降低能耗並提升網絡重構的速度。穀歌在其數據中心大規模部署 OCS 已經證明了這一路徑的可行性。

這意味著,未來的數據中心競爭,將不隻是比拚 GPU 數量,而是比拚:計算 + 網絡 + 調度的整體效率。而光模塊,正處在這一體係的核心位置。它不僅是物理連接的節點,更是網絡拓撲優化的關鍵執行者。

從投資角度看,這帶來一個明顯的結構性機會:

一方麵,算力芯片已經經曆了一輪大幅重估,估值處於曆史高位;

另一方麵,光通信板塊的估值體係仍然相對滯後,尚未完全反映其在 AI 集群中的核心地位。這種認知差,往往正是下一輪行情的起點。

此外,還需要注意到全球光模塊供應鏈的地理分布特征。盡管核心技術專利部分掌握在歐美日企業手中,但高端光模塊的製造與封裝產能高度集中在中國。

國內頭部企業在響應速度、成本控製和大規模交付能力上具有顯著優勢,深度綁定了全球雲巨頭的供應鏈。

這種產業格局使得中國光通信企業能夠直接受益於全球 AI 基建的紅利,而不必完全依賴國內市場的複蘇。當市場意識到光模塊不僅是通信器件,更是 AI 算力的倍增器時,估值體係的重塑將成為必然。

結語:

連接即算力,效率新紀元

如果說過去兩年,AI 投資的關鍵詞是算力,那麽接下來,關鍵詞將變成效率。

而效率的核心,不在芯片,而在連接。

Lumentum 的新高,隻是一個開始。真正值得關注的,是整個光模塊產業鏈的重估進程。從 EML 芯片的稀缺性,到 1.6T 產品的放量,再到 CPO 技術的長期演進,每一個環節都蘊含著價值釋放的機會。

因為在 AI 時代,決定上限的,不再隻是算力有多強,而是這些算力,能否被高效連接與利用。當網絡成為算力的瓶頸,解決連接問題的公司,就擁有了定義未來的權力。

這不僅僅是一場技術的升級,更是一次產業價值鏈的重新分配。對於投資者而言,看懂了光,也就看懂了 AI 下半場的入口。

[ 打印 ]
評論
目前還沒有任何評論
登錄後才可評論.