長期 GOOG+ AVGO , NVDA ,AMD AI 算力的戰國時代的開啟 FA
上次GOOG ER 有一條重要的消息漏掉了。 先說結論, 這肯定了AI算力從一家獨大到三分天下的猜測。 加劇了競爭。 MSFT , AMZN因為和GOOG的直接競爭關係因該不會直接上TPU。 但其他家會。
2026年4月29日,Alphabet CEO Sundar Pichai 在 Q1財報電話會議上正式宣布,Google 計劃將 TPU 芯片直接出售給部分精選客戶,供其安裝在自己的數據中心中。
這是一個重大戰略轉變。此前 Google 的模式是通過 Google Cloud 平台向客戶出租 TPU 算力,而非出售硬件本身。
- Anthropic(Claude 的開發商)與 Google 簽署了多 GW 規模的下一代 TPU 協議,芯片預計從 2027 年開始交付。同時,據 The Information 報道,Google 也與 Meta 簽署了數十億美元的芯片協議。
- Meta 在 2026 年 2 月與 Google Cloud 簽署了多年期、數十億美元合同,用於 Llama 4 訓練以及內部推薦和排序應用。
-
CFO Anat Ashkenazi 表示,Google 今年將有部分 TPU 銷售收入入賬,但更大的資產負債表影響將在 2027 年顯現,且收入會因芯片交付時間不同而逐季波動。
目前 Google Cloud 的合同積壓已達 4620 億美元,TPU 硬件協議也已納入其中。
目前英偉達占據 AI 加速芯片市場 80%~90% 的份額,而 Meta 原本是英偉達最大客戶之一。從90%的市場占有率來說,英偉達的營收利潤會增長但 市場占有率在激烈的競爭中隻會走下坡路了, 符合邏輯的是90% -> 99% = 不可完成的任務 , 更自然的結果 90%-> 80%-> 70%-> 60% ...。
但從長期來看,威脅是結構性的,而非立竿見影的:
- TPU 在推理和張量密集型任務上性價比比 GPU 高約 4 倍,但英偉達 GPU 在訓練多樣化模型、研究靈活性以及遊戲/圖形/通用計算等非張量工作負載上仍然更有優勢。
- Meta 采取的是"混合策略"——英偉達負責靈活性,TPU 負責效率,並非完全替代。
- 分析師 估計,若 Google TPU 大規模對外銷售,Alphabet 中期有望拿下全球 AI 芯片市場最多 20+% 的份額。
AMD 在這場博弈中競爭更為激烈——它本來就在爭奪英偉達的替代品地位,而 Google TPU 的入局,讓 AMD 的 MI 係列 GPU 麵臨雙重競爭:既有 NVDA 從上方壓製,又有 Google/Broadcom ASIC 從專用場景切入。
最新進展:
據 The Information 報道,OpenAI 已開始使用 Google TPU 為 ChatGPT 等產品提供算力支持,這是 OpenAI 首次有實質性地使用非英偉達芯片。
這份與 Google 的合同,是 OpenAI 從"微軟獨家雲"轉向多元化算力供應的一部分。目前 OpenAI 的算力供應商還包括微軟、Oracle 和 CoreWeave。
OpenAI 要用 TPU核心動機是NVDA GPU的推理成本太高。
推理消耗了 OpenAI 超過 50% 的計算預算。分析師指出,TPU 尤其是老一代 TPU,在推理任務上的單次成本顯著低於英偉達 GPU——因為 TPU 的專用架構減少了能量浪費和空閑資源,在大規模運行時更具成本效益。
Barclays 預測,僅消費端 AI 推理的芯片資本支出在 2026 年就將接近 1200 億美元,到 2028 年超過 1.1 萬億美元,這迫使 OpenAI 等 LLM 服務商不得不考慮 ASIC 替代方案。
Google 並未向 OpenAI 出租其最強大的 TPU,這一點據 Google Cloud 內部員工透露。也就是說,競爭對手能用,但用的是"降配版",Google 不會把最強算力拱手相讓。
TPU 客戶版圖(截至2026年),目前已知的 Google TPU 主要客戶包括:Anthropic、OpenAI、Apple、Meta 以及 Safe Superintelligence(SSI)。
OpenAI 雖然是 Google 在 AI 領域最直接的競爭對手,但在算力上已經成了 Google 的客戶——這正是 AI 行業最吊詭的現實:競爭與合作並存,成本壓力讓意識形態讓步於經濟邏輯。對 NVDA 而言,連 OpenAI 這個最核心的大客戶都在分散籌碼,長期壓力不可忽視。
