
美國當地時間周三,芯片巨頭英偉達發布了2026財年第三財季(對應自然年2025年第三季度)財報。
財報顯示,英偉達第三財季營收為570.06億美元,同比增長62%,環比增長22%,超過LSEG所調查分析師平均預期的549.2億美元;淨利潤為319.1億美元,同比增長65%,環比增長21%;每股攤薄收益為1.3美元,同比增長67%,環比增長20%,超過LSEG所調查分析師平均預期的1.25美元。
得益於英偉達第三財季業績及第四財季指引均超分析師預期,美股盤後英偉達股價漲超5%。
財報發布後,英偉達首席執行官黃仁勳、首席財務官科萊特·克雷斯等高管出席財報分析師電話會,解讀財報並回答了分析師提問。
以下為英偉達第三財季電話會精華版:
在電話會上,克雷斯首先向投資者描繪了一幅AI計算革命的宏偉圖景。她指出,第三財季的卓越表現源於三大技術範式轉型的同步爆發:通用計算向加速計算的演進、生成式AI對傳統機器學習的取代,以及智能體應用開啟的全新賽道。但她強調,我們仍處於這些轉型的早期階段。
克雷斯用一係列令人振奮的數字印證了這一趨勢:英偉達目前已鎖定5000億美元的Blackwell和Rubin架構訂單,全球雲服務商的GPU產能持續滿載。更引人注目的是,主要雲廠商將2026年資本支出預期上調至約6000億美元,較年初增長逾2000億美元,其中近半數將投向加速計算基礎設施。
三大擴展定律(預訓練、後訓練和推理)依然成立,它們都在積極擴展計算規模以提升智能水平。在克雷斯看來,行業正在形成“智能提升-應用拓展-收益增長”的飛輪效應。她舉例說明,OpenAI周活躍用戶已達8億,Anthropic年化收入在十個月內從10億躍升至70億美元,這種爆發式增長正在各個垂直領域重現。從Cursor賦能軟件開發,到Abridge變革醫療記錄,AI應用公司紛紛實現用戶量與營收的跨越式增長。
談及具體業務進展,克雷斯透露上季度全球AI工廠項目需求相當於500萬顆GPU,其中包括xAI的吉瓦級數據中心、禮來公司的藥物研發工廠等標誌性項目。英偉達正在與OpenAI商討一項戰略合作夥伴關係,重點幫助他們建設和部署至少10吉瓦的AI數據中心。
Blackwell架構中GB300已成為主力產品,超過GB200貢獻該係列約三分之二營收。Rubin平台正按計劃在2026年擴大規模,而下一代Vera Rubin平台將再次實現性能的階躍式提升。
這位CFO特別強調兩個戰略機遇:一方麵,與OpenAI等領導者的深度合作將持續鞏固在超大規模數據中心的優勢;另一方麵,物理AI正成為數萬億美元的新藍海,製造業巨頭和機器人創新企業都在采用英偉達的全棧式計算架構推進數字化轉型。
黃仁勳則回應了市場對AI泡沫的擔憂,他指出英偉達正在見證的並非泡沫,而是三個曆史性技術轉型的共振效應。這位CEO強調,英偉達區別於其他加速器廠商的根本在於其全棧能力——從預訓練、後訓練到推理的每個AI階段,再到科學計算和圖形處理,CUDA生態係統經過二十年深耕已建立起難以逾越的壁壘。
他精辟地剖析了三大並行發生的平台遷移:
首先,在摩爾定律放緩的背景下,通用計算向加速計算的轉型已成為必然選擇,每年數千億美元的傳統計算支出正在尋找更高效的歸宿;
其次,生成式AI正在徹底重構互聯網基礎服務,他以Meta的Gem廣告推薦係統為例,說明即使是5%的廣告轉化率提升也能帶來巨額收入增長;
最後,更具顛覆性的智能體AI浪潮已經湧現,從編程助手到自動駕駛,新一代AI應用正在重塑各行各業的工作方式。作為世界上增長最快的公司,OpenAI、Anthropic、xAI、穀歌、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、特斯拉,都在開發智能體AI。
在黃仁勳看來,這三重轉型分別對應著不同的戰略意義:加速計算是後摩爾定律時代的必需品,生成式AI是現有業務的增強劑,而智能體AI則將催生全新的商業模式。
他特別指出,英偉達之所以能在這三個維度同時獲得成功,關鍵在於其統一架構的戰略選擇,相同的技術平台既能支持雲端訓練,也能驅動邊緣推理,這種一致性為開發者提供了無與倫比的便利性。
以下為問答環節:
問:關於Blackwell和Rubin架構在2025至2026年5000億美元的營收指引,目前是否仍維持此前提出的“已完成1500億美元發貨,剩餘3500億美元待執行”的判斷?這一預期是否會隨業務進展而上調?
克雷斯:我們確認該營收指引保持不變,且執行進度符合預期。在完成第三財季500億美元的發貨後,我們仍需要數個季度來實現剩餘目標。需要強調的是,這一預測數字是動態增長的。我們持續看到超出預期的市場需求,例如今天與沙特達成的協議,將在三年內新增40萬至60萬顆GPU的訂單,而Anthropic等客戶的訂單增量也未包含在原計劃中。因此,我們確信最終實現的總營收將超越目前5000億美元的預測。
問:隨著Grok3、Gemini 3等新一代模型即將釋放更大潛力,你們認為未來12-18個月內供應鏈能否滿足需求?還是供不應求的狀態會持續更久?
黃仁勳:我們的供應鏈規劃具備前瞻性和韌性。英偉達與台積電、存儲夥伴及係統製造商構成的生態已為持續增長做好充分準備。但更關鍵的是,需求本身正在經曆結構性擴張,這遠不止於單一應用場景的爆發。
當前我們同時麵臨三大技術浪潮的疊加:一是算力基礎架構的根本性轉變,從通用計算全麵邁向加速計算;二是生成式AI正係統性重構互聯網核心服務,如搜索、廣告推薦等關鍵業務;三是智能體AI的興起,推動AI從工具向協作夥伴進化。
這些變革並非孤立存在。無論是傳統數據處理任務、生成式AI應用,還是新興的智能體服務,都在我們的平台上並行增長。例如編程助手工具正在重塑軟件開發效率,其影響力已從技術團隊延伸至營銷、供應鏈等業務部門。這種跨行業的滲透速度是前所未有的。
更值得關注的是技術飛輪正在加速:模型能力的每一次突破(如Gemini 3展現的躍升)都會催生更廣泛的應用場景,進而推動更強烈的算力需求。在這個動態循環中,英偉達的全棧優勢讓我們能夠同時支持不同階段、不同場景的AI需求。
問:關於吉瓦級數據中心的單瓦價值,在5000億美元營收預期中,英偉達的每吉瓦價值貢獻是多少?我們聽到的估值從250億到400億美元不等。此外,麵對2030年3-4萬億美元的數據中心市場,多少投資需要供應商融資?多少能由客戶自有資金覆蓋?
黃仁勳:我們的每代架構都在提升單瓦價值密度。從Ampere到Hopper約20-25億美元/吉瓦,Blackwell架構已突破30億美元,而即將到來的Rubin平台將進一步刷新這個數字。這背後的本質是,在固定的能源預算下,唯有通過架構創新才能釋放最大價值。1吉瓦的電力必須轉化為盡可能高的計算產出,這正是我們全棧協同設計的核心目標。
關於市場資金的來源,需要從三個層麵理解:
首先,超大規模雲服務商的資本支出具有堅實的商業基礎支撐。隨著摩爾定律的放緩,傳統計算架構已難以滿足效率和成本要求。這些雲廠商轉向英偉達GPU架構,不僅是技術升級,更是商業模式的必然選擇。這既能顯著提升其通用計算的效率,又能通過生成式AI技術重塑核心業務(如內容推薦、廣告係統等),直接創造營收增長。這部分投資完全能夠由其健康的現金流支撐。
其次,智能體AI代表著全新的增長維度。這不僅僅是現有業務的延伸,更是創造全新應用場景和商業模式的關鍵。從自動駕駛到數字孿生工廠,從AI製藥到智能倉儲,這些新興領域正在吸引獨立的資本投入,形成自我維持的發展循環。
更重要的是,我們需要突破“僅關注美國雲廠商”的局限視角。全球各個國家都在推進主權AI建設,各行業也在啟動數字化轉型,從製造業到生物科技,從物流到金融服務,每個領域都在構建自己的智能化能力。這些多元化的需求來源,構成了一個遠比傳統雲服務市場更為廣闊的投資圖景。
因此,AI基礎設施的投資故事不是單一維度的,而是一個由技術驅動、多層次、全球性的資本演進過程。
問:關於未來幾年可能產生的約5000億美元自由現金流,請問英偉達有何規劃?資金將如何在股票回購與生態係統投資之間分配?
黃仁勳:我們的資金配置策略始終服務於公司長期發展目標。首先,保持強勁的資產負債表對維持供應鏈韌性至關重要。作為行業領導者,我們必須確保供應鏈夥伴能夠信賴我們的采購承諾和產能規劃,這需要雄厚的資金實力作為後盾。
在資本回報方麵,我們將繼續執行股票回購計劃,同時將戰略性投資視為構建生態係統的關鍵舉措。這些投資絕非簡單的財務行為,而是深化技術合作、拓展CUDA生態係統的重要途徑。
以OpenAI為例,我們自2016年交付首台AI超算以來就建立了深度合作關係。通過投資,我們不僅獲得財務回報,更實現了技術棧的深度融合,如今OpenAI全線產品都基於英偉達架構運行。這種模式在Anthropic案例中同樣得到驗證,我們正協助其將Claude模型遷移至英偉達平台。
值得強調的是,英偉達平台已成為承載所有主流AI模型的統一架構。從OpenAI、Anthropic到xAI,從穀歌Gemini到各類科研模型,我們的技術棧展現出無與倫比的兼容性。通過戰略性投資,我們既鞏固了技術生態,又獲得了投資下一代顛覆性企業的機會。
問:你曾提到約40%的GPU出貨用於AI推理。展望明年,這個比例將如何變化?同時,能否談談即將推出的Rubin CPX產品及其市場定位?
黃仁勳:關於推理占比的具體預測存在難度,但這恰恰反映了行業的健康態勢。我們樂見推理需求持續擴大,因為這意味著AI正被更頻繁、更廣泛地應用於實際場景。當前三大技術趨勢正在共同推動推理需求:預訓練模型持續進化、後訓練技術顯著提升模型邏輯能力,而思維鏈等推理技術更使得AI需要"先思考再回答",大幅增加了計算密度。
在推理計算領域,我們的Grace Blackwell架構已建立起顯著優勢。基準測試顯示,GB300憑借NVLink 72拓撲結構,在複雜推理任務上相比其他方案實現了10-15倍的性能提升。這種技術代差確保了我們在推理市場的領導地位將延續多年。
關於Rubin CPX,這款產品專門針對長上下文工作負載優化。當AI需要深入分析大量資料,無論是數百頁文檔、長視頻還是複雜3D模型時,CPX的架構設計能確保極高的能效和性價比。它將成為處理科研分析、高級內容生成等複雜任務的首選平台。
推理市場的擴張速度遠超預期,而這正是英偉達全棧技術優勢的集中體現。從硬件架構到軟件優化,我們正在為這個即將爆發的市場做好充分準備。
問:在客戶紛紛轉向自建電力模式的背景下,你認為製約英偉達發展的最關鍵瓶頸是什麽?是能源供應、融資支持,還是內存或晶圓廠產能?
黃仁勳:這些確實都是需要麵對的挑戰。當企業以我們這樣的速度和規模發展時,每個環節都會麵臨壓力。英偉達不僅是在參與一個產業,更是在開創一個全新的領域——AI工廠。這標誌著計算範式正在發生根本性轉變:從傳統的信息檢索,轉向基於生成式AI的實時內容創造。
在供應鏈管理方麵,我們擁有顯著優勢。與台積電等夥伴長達三十三年的合作,讓我們在上遊供應鏈建立了可靠的協作體係。同時,我們也在積極拓展下遊生態,與電力、土地資源及金融機構建立戰略合作。雖然每個環節都充滿挑戰,但這些都是可以通過係統規劃和緊密協作來解決的問題。
我認為最核心的競爭優勢在於架構效能。英偉達平台的能效比和總體擁有成本(TCO)在業內保持領先,這意味著在相同的能源投入下,客戶能夠獲得更高的產出回報。這個優勢正在獲得市場驗證。越來越多的企業在評估多種方案後,最終選擇投入我們的技術生態。
我們看到的不是一個單一瓶頸,而是一個正在自我強化的增長循環:技術優勢帶來客戶認可,規模擴大進一步鞏固供應鏈優勢。這個正向循環正在加速,而且比以往任何時候都更加明顯。
問:隨著Anthropic等重要合作的達成,以及客戶基礎的不斷擴大,你如何看待AI專用芯片(ASIC)在行業中的角色?這是否意味著GPU架構正迎來新的轉折點?
黃仁勳:這個問題觸及了AI基礎設施發展的核心。首先需要明確的是,現代AI計算已經遠不止於單個芯片的競爭,而是整體係統架構的較量。在Ampere和Hopper時代,一個GPU就定義了加速係統;而如今,我們需要構建包含三種不同類型交換機的完整機櫃係統,支持從縱向擴展到橫向擴展的全場景需求。
當前AI模型的複雜度和多樣性呈現爆炸式增長——從混合專家模型到擴散模型,從自回歸模型到遵循物理定律的科學計算模型,這對計算架構提出了前所未有的要求。在這個背景下,英偉達的競爭優勢體現在五個關鍵維度:
第一,全棧能力。從通用計算向加速計算的轉型,到生成式AI的普及,再到智能體AI的興起,我們的CUDA生態係統能夠支持每個技術轉型階段,客戶隻需投資單一架構就能滿足所有需求。
第二,全階段卓越。無論是計算密集的預訓練、算法創新的後訓練,還是極具挑戰性的推理任務,我們的平台都展現出卓越性能。特別是推理環節,隨著思維鏈等複雜任務的出現,其技術門檻被大幅提升。
第三,無與倫比的兼容性。我們是目前唯一能夠運行所有主流AI模型的平台,從前沿的大語言模型到專業的科學計算模型,從生物學模型到機器人模型,這種普適性為開發者提供了極大的便利。
第四,全域覆蓋。從超大規模雲平台到企業本地部署,從邊緣設備到機器人係統,我們的架構實現了真正意義上的全場景覆蓋。
第五,也是最關鍵的一點,生態係統的承載能力。對於任何基礎設施投資者而言,平台的用戶基數和應用多樣性至關重要。英偉達龐大的開發者社區和多元化的應用場景,確保了投資回報的可靠性和持續性。
這正是通用GPU架構與專用ASIC的本質區別。我們提供的是完整的解決方案,而不僅僅是單個組件。隨著AI應用場景的不斷擴展,這種全棧優勢正在變得更加明顯。
