全球AI算力競賽再掀巨浪,頭部玩家的“軍備”升級從未如此迅猛。
美東時間周三,AI獨角獸Anthropic官宣重磅合作,正式租下SpaceX旗下Colossus 1數據中心全部算力,拿下了這座曾支撐xAI訓練Grok超算的“頂級算力堡壘”。
根據協議,這筆合作將在1個月內為Anthropic帶來超300兆瓦新增算力,等效22萬塊英偉達GPU,直接刷新行業算力擴容紀錄。
此番聯手,不僅讓長期因算力不足受限、頻繁限流的Anthropic一舉擺脫資源桎梏,更讓馬斯克旗下SpaceX深度入局AI算力租賃賽道。
那麽,22萬GPU、300兆瓦容量究竟意味著什麽?這筆“天價”算力交易背後藏著怎樣的博弈?本文將為您深度拆解這場AI算力圈的關鍵變局。
簽約主體:SpaceXAI與Anthropic
值得注意的是,就在這場協議公布後,馬斯克在X上發表的另一篇文章中表示,xAI“將作為一家獨立公司解散”,並將更名為 SpaceXAI。
算力規模:Anthropic在一份聲明中表示,該協議使其“在一個月內獲得超過300兆瓦的新產能”。
根據xAI官方數據,這次Anthropic租賃的Colossus 1是全球最大的AI數據中心之一,配備了超過22萬塊英偉達GPU,其中包括密集部署的H100、H200和下一代GB200加速器。
數據中心位置:美國田納西州孟菲斯
交付時間:一個月內
重要性:
對於Anthropic:
在此之前,Anthropic公開算力估算僅不足10萬H100當量,明顯落後OpenAI和穀歌DeepMind等同行。這次新增22萬張GPU算力後,總算力直接追平甚至超越部分大廠,為下一代大模型訓練、多模態升級、企業級大規模部署提供硬件底氣。
對於SpaceX:
a.閑置頂級算力直接變現:Colossus 1 原本為xAI訓練而建,xAI並入SpaceX後訓練主力遷移至 Colossus 2,1號機群處於高投入、高耗電、低產出的閑置狀態。租給 Anthropic後,這一閑置產能可直接實現算力變現,降低AI業務虧損率,為IPO提供強現金流故事。
b.“太空算力”夢想更進一步:雙方聯合研發軌道級算力的約定,意味著SpaceX把“數據中心上天”從概念朝著工程路線更進了一步。
用戶直接收益;
1.Anthropic將Claude Code針對 Pro、Max、Team 和企業計劃的服務時長限製從原來的 5 小時提升至 10 小時。
2.Anthropic將取消 Claude Code Pro 和 Max 賬戶的“高峰時段使用限製”規定。
3.Anthropic將大幅提高Claude Opus 模型的API 請求上限,具體數據如下麵表格所示:
300兆瓦相當於什麽概念
如SpaceX所說,300兆瓦的功耗相當於22萬張英偉達GPU。
我們以當前主流AI訓練芯片(如H100)為假設基準來進行推算:單H100 GPU典型功耗大約為700W,那麽22萬片GPU本體功耗大約為154MW,剩下電力用於冷卻、供電損耗、網絡與管理係統。
當然,實際上SpaceX還使用了H200、GB100等芯片,不同芯片的功耗不同,所以實際的用電數據可能略有出入。
直觀來看,300兆瓦相當於一個中型城市或大型工業園區的用電負荷。一般來說,300MW可滿足約20–30萬戶家庭的日常用電。換句話說,即一個中型城市的全部居民用電都用於給Colossus 1這一個數據中心發電。
而和同行對比的話,根據摩根士丹利、高盛、Bernstein等行業分析師推算,各大AI大廠的全網全域可調度總算力當量數據約為:
OpenAI:預估在15萬–20萬張H100當量(分散在多個集群,非一次性可用)
Google DeepMind:約10萬–15萬張H100當量
Meta(LLaMA):約8萬–10萬張H100當量
Anthropic(與SpaceXAI簽約之前):不足10萬張H100當量(所以此前一直限流)