Anthropic大手筆租下SpaceX頂級數據中心!深扒協議細節:22萬塊GPU是個什麽水平?

來源: 2026-05-07 03:40:07 [博客] [舊帖] [給我悄悄話] 本文已被閱讀:

全球AI算力競賽再掀巨浪,頭部玩家的“軍備”升級從未如此迅猛。

美東時間周三,AI獨角獸Anthropic官宣重磅合作,正式租下SpaceX旗下Colossus 1數據中心全部算力,拿下了這座曾支撐xAI訓練Grok超算的“頂級算力堡壘”。

根據協議,這筆合作將在1個月內為Anthropic帶來超300兆瓦新增算力,等效22萬塊英偉達GPU,直接刷新行業算力擴容紀錄。

此番聯手,不僅讓長期因算力不足受限、頻繁限流的Anthropic一舉擺脫資源桎梏,更讓馬斯克旗下SpaceX深度入局AI算力租賃賽道。

那麽,22萬GPU、300兆瓦容量究竟意味著什麽?這筆“天價”算力交易背後藏著怎樣的博弈?本文將為您深度拆解這場AI算力圈的關鍵變局。

簽約主體:SpaceXAI與Anthropic

值得注意的是,就在這場協議公布後,馬斯克在X上發表的另一篇文章中表示,xAI“將作為一家獨立公司解散”,並將更名為 SpaceXAI。


算力規模:Anthropic在一份聲明中表示,該協議使其“在一個月內獲得超過300兆瓦的新產能”。

根據xAI官方數據,這次Anthropic租賃的Colossus 1是全球最大的AI數據中心之一,配備了超過22萬塊英偉達GPU,其中包括密集部署的H100、H200和下一代GB200加速器。

 

數據中心位置:美國田納西州孟菲斯

交付時間:一個月內

重要性:

對於Anthropic:

在此之前,Anthropic公開算力估算僅不足10萬H100當量,明顯落後OpenAI和穀歌DeepMind等同行。這次新增22萬張GPU算力後,總算力直接追平甚至超越部分大廠,為下一代大模型訓練、多模態升級、企業級大規模部署提供硬件底氣。

對於SpaceX:

a.閑置頂級算力直接變現:Colossus 1 原本為xAI訓練而建,xAI並入SpaceX後訓練主力遷移至 Colossus 2,1號機群處於高投入、高耗電、低產出的閑置狀態。租給 Anthropic後,這一閑置產能可直接實現算力變現,降低AI業務虧損率,為IPO提供強現金流故事。

b.“太空算力”夢想更進一步:雙方聯合研發軌道級算力的約定,意味著SpaceX把“數據中心上天”從概念朝著工程路線更進了一步。

用戶直接收益;

1.Anthropic將Claude Code針對 Pro、Max、Team 和企業計劃的服務時長限製從原來的 5 小時提升至 10 小時。

2.Anthropic將取消 Claude Code Pro 和 Max 賬戶的“高峰時段使用限製”規定。

3.Anthropic將大幅提高Claude Opus 模型的API 請求上限,具體數據如下麵表格所示:

 

300兆瓦相當於什麽概念

如SpaceX所說,300兆瓦的功耗相當於22萬張英偉達GPU‌。

我們以當前主流AI訓練芯片(如H100)為假設基準來進行推算:單H100 GPU典型功耗大約為700W,那麽22萬片GPU本體功耗大約為154MW,剩下電力用於冷卻、供電損耗、網絡與管理係統。

當然,實際上SpaceX還使用了H200、GB100等芯片,不同芯片的功耗不同,所以實際的用電數據可能略有出入。

直觀來看,300兆瓦相當於一個中型城市或大型工業園區的用電負荷‌。一般來說,300MW可滿足約20–30萬戶家庭的日常用電。換句話說,即一個中型城市的全部居民用電都用於給Colossus 1這一個數據中心發電。

而和同行對比的話,根據摩根士丹利、高盛、Bernstein等行業分析師推算,各大AI大廠的全網全域可調度總算力當量數據約為:

OpenAI:預估在15萬–20萬張H100當量(分散在多個集群,非一次性可用)
Google DeepMind:約10萬–15萬張H100當量
Meta(LLaMA):約8萬–10萬張H100當量
Anthropic(與SpaceXAI簽約之前):不足10萬張H100當量(所以此前一直限流)