上次GOOG ER 有一條重要的消息漏掉了。 先說結論,這肯定了AI算力從一家獨大到三分天下的猜測。 加劇了競爭。 MSFT , AMZN因為和GOOG的直接競爭關係因該不會直接上TPU。 但其他家會。
2026年4月29日,Alphabet CEO Sundar Pichai 在 Q1財報電話會議上正式宣布,Google 計劃將 TPU 芯片直接出售給部分精選客戶,供其安裝在自己的數據中心中。
這是一個重大戰略轉變。此前 Google 的模式是通過 Google Cloud 平台向客戶出租 TPU 算力,而非出售硬件本身。
CFO Anat Ashkenazi 表示,Google 今年將有部分 TPU 銷售收入入賬,但更大的資產負債表影響將在 2027 年顯現,且收入會因芯片交付時間不同而逐季波動。
目前 Google Cloud 的合同積壓已達 4620 億美元,TPU 硬件協議也已納入其中。
目前英偉達占據 AI 加速芯片市場 80%~90% 的份額,而 Meta 原本是英偉達最大客戶之一。從90%的市場占有率來說,英偉達的營收利潤會增長但市場占有率在激烈的競爭中隻會走下坡路了, 符合邏輯的是90% - 99% = 不可完成的任務, 更自然的結果 90%- 80%- 70%- 60% ...。
但從長期來看,威脅是結構性的,而非立竿見影的:
AMD 在這場博弈中競爭更為激烈它本來就在爭奪英偉達的替代品地位,而 Google TPU 的入局,讓 AMD 的 MI 係列 GPU 麵臨雙重競爭:既有 NVDA 從上方壓製,又有 Google/Broadcom ASIC 從專用場景切入。
最新進展:
據 The Information 報道,OpenAI 已開始使用 Google TPU 為 ChatGPT 等產品提供算力支持,這是 OpenAI 首次有實質性地使用非英偉達芯片。
這份與 Google 的合同,是 OpenAI 從微軟獨家雲轉向多元化算力供應的一部分。目前 OpenAI 的算力供應商還包括微軟、Oracle 和 CoreWeave。
OpenAI 要用 TPU核心動機是NVDA GPU的推理成本太高。
推理消耗了 OpenAI 超過 50% 的計算預算。分析師指出,TPU 尤其是老一代 TPU,在推理任務上的單次成本顯著低於英偉達 GPU因為 TPU 的專用架構減少了能量浪費和空閑資源,在大規模運行時更具成本效益。
Barclays 預測,僅消費端 AI 推理的芯片資本支出在 2026 年就將接近 1200 億美元,到 2028 年超過 1.1 萬億美元,這迫使 OpenAI 等 LLM 服務商不得不考慮 ASIC 替代方案。
Google 並未向 OpenAI 出租其最強大的 TPU,這一點據 Google Cloud 內部員工透露。也就是說,競爭對手能用,但用的是降配版,Google 不會把最強算力拱手相讓。
TPU 客戶版圖(截至2026年),目前已知的 Google TPU 主要客戶包括:Anthropic、OpenAI、Apple、Meta 以及 Safe Superintelligence(SSI)。
OpenAI 雖然是 Google 在 AI 領域最直接的競爭對手,但在算力上已經成了 Google 的客戶這正是 AI 行業最吊詭的現實:競爭與合作並存,成本壓力讓意識形態讓步於經濟邏輯。對 NVDA 而言,連 OpenAI 這個最核心的大客戶都在分散籌碼,長期壓力不可忽視。