簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 5000萬卡!馬斯克殺進芯片競賽,算力碾壓OpenAI

5000萬卡!馬斯克殺進芯片競賽,算力碾壓OpenAI

文章來源: ZAKER 於 2025-07-23 18:58:46 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數



OpenAI年底前將上線100萬張GPU,直觀感受就是新一輪芯片戰爭打響了。

7月21日,奧特曼在推特上預告,OpenAI到年底前將上線超過100萬張GPU。他還補充道,“對團隊感到自豪,但現在他們最好想想,怎麽在這個數量規模上再擴容100倍。”

5000萬卡!馬斯克殺進芯片競賽,算力碾壓OpenAI

奧特曼官宣OpenAI“百萬GPU”目標

這句看似簡單的預告,實則暗藏多重信號:

首先,規模碾壓對手。OpenAI的目標不再是10萬卡,20萬卡,要做就做100萬卡,這一規模將達到馬斯克旗下xAI訓練Grok 4所用20萬GPU的5倍;

其次,戰略自主。算力基礎設施的躍進,意味著OpenAI正逐步擺脫對微軟Azure的依賴——過去其算力高度綁定微軟,如今通過自建數據中心(如星門計劃)掌握主動權;

最後,OpenAI的行業野心也一覽無餘。“擴容100倍”直指AGI所需的終極算力目標,一場以算力為基石的AI軍備競賽已進入白熱化。

這裏還有個小插曲——就在奧特曼定下衝刺100萬卡目標之後,華爾街日報就下場拆台,稱星門計劃進度不順利,軟銀遲遲掏不出錢。但OpenAI隨即“滅火”:不僅官宣與甲骨文加碼投資,將星門計劃擴容4.5吉瓦,還強調一期項目已部分投入運營,多方合作進展順利。

隨後,馬斯克更是直接“放衛星”,5年內,xAI要部署到5000萬張H100 GPU的等效算力。



馬斯克提出xAI五年內5000萬卡目標

按照單卡平均4萬美元粗略計算,100萬卡規模,僅GPU部分價值就高達400億美元,這種燒錢量級和速度,在科技行業也是前所未有,基本接近一線巨頭們的年資本支出。

英偉達對此自然是樂見其成,問題是,行業數以萬計的計算卡需求,會將英偉達的市值推向什麽高度?

我們把視線再拉回算力上,OpenAI最近一次受算力影響最大的案例是3月份上線的“吉卜力風格”生圖功能,官方一度對產品做了限流處理,包括對生圖的速率進行暫時性限製,將免費用戶的生成額度限製在每日3次。奧特曼還在推特上高喊“我們的GPU快要融化了”,表麵是宣傳產品,也可以看做是給猶豫不決的投資人“上眼藥”。

顯然,星門計劃還在籌資階段,OpenAI、軟銀、甲骨文們雖然能湊出500多億美元,但還有一半的缺口要通過債務融資完成,想要刺激投資人們掏錢,就得釋放一些星門計劃合理性的信號。

01 奧特曼“腳踏三隻船”

OpenAI對算力的追逐由來已久,其算力來源包括自研、星門計劃、微軟三個主要渠道。

關於自研芯片這件事,一度傳出奧特曼要籌集7萬億美元下場造芯的消息。不過,去年2月份,奧特曼委婉的否認了此事,在他與英特爾前任CEO帕特·基辛格的爐邊談話中曾說過:“我們確實認為世界需要在AI計算(芯片)領域投入大量資金”。

根據行業的跟蹤和研究數據,OpenAI自研芯片一直在有序推進,其首款產品最快2026年問世。



科技公司自研芯片路線圖,標紅為已發布,*代表待確認,來源HSBC

匯豐銀行研究團隊6月下旬披露了一份科技公司自研ASIC的進度表,包括穀歌、Meta、亞馬遜、微軟、xAI等等在內的矽穀公司,清一色下場自研AI芯片。

研報顯示,OpenAI首款3納米自研芯片由博通代工設計,代號為Titan V.1,將於2026年發布,更先進的Titan V.2芯片將於2028年問世,但不確定為2nm工藝還是A16(1.6nm)工藝。



一位長期跟蹤半導體產業的分析師Paul則在推特上披露了OpenAI自研芯片的詳細規格和發布時間(如上圖),強調Titan V.1將在2026年第三季度問世,核心配置包括N3工藝、144GB HBM3e顯存、兩顆計算芯片,采用CoWoS-S封裝等,但他認為,Titan V.2將於2027年第三季度問世,比匯豐銀行的分析師團隊預測的2028年稍稍提前。

自研屬於長線規劃,在這條路跑通之前,OpenAI的腳開始伸向微軟之外的“另一條船”,牽頭搭建算力基礎設施。

今年1月份,OpenAI聯合軟銀、甲骨文推出星門項目,計劃四年在美國投資5000億美元,搭建算力基礎設施,首期投資1000億美元,其中軟銀承擔財務責任,OpenAI負運營責任。

這裏的重點是,運營權才是奧特曼在星門計劃中想得到的——想怎麽分配怎麽分配,打不打價格戰全都自己說了算。



美國得州阿比林星門項目工地航拍,來源:OpenAI

4個月之後,OpenAI又攢了一個“阿聯酋版”星門計劃,計劃聯合G42、甲骨文、英偉達、軟銀等合作夥伴,在當地構建一個1吉瓦的數據中心,預計2026年投入使用。

這些宏大的基礎設施項目兌現之前,OpenAI的算力供給仍然依賴微軟——兩家自2019年開始合作,微軟向其提供了超過130億美元的直接投資,同時成為OpenAI獨家算力提供商,微軟則在OpenAI的模型、收入分成等方麵獲得優先權,比如可獲得OpenAI 49%的利潤分配權,最多可達到1200億美元。

依賴微軟,也要避免被微軟“卡脖子”。從7萬億美元造芯傳聞,到5000億的星門計劃,再到阿聯酋版星門,OpenAI核心邏輯是構建一個由自己主導,不斷堆高的宏大算力敘事。

沒有規模化的算力,就會隨時被穀歌的價格戰碾壓,而規模化是穀歌的先天優勢。產品層麵,缺算力就如同“巧婦難為無米之炊”,就會出現更多“吉卜力風格”生圖能力受限的問題,所以之前才會就有小道消息說,伊利亞因為算力需求被砍憤而離職、GPT-5、DALL-E等就是因為算力短缺而被迫延遲發布等等。

巧合的是,在OpenAI“猛踩油門”的時候,微軟卻輕點了一下刹車。

今年4月份,美國券商TD Cowen分析師稱,微軟放棄了在美國和歐洲的2吉瓦新數據中心項目,微軟官方的回複稱數據中心容量都是多年前規劃,現在各地布局都已完善,所以做了一些靈活性的戰略調整。

微軟的戰略收縮,其實從去年底納德拉接受BG2播客訪談中就能找到信號,他當時毫不避諱的強調和奧特曼的分歧,“我們需要用嚴謹的方式來思考如何有效利用現有設備。同時也要考慮設備的使用壽命,不能一味地購買新設備。除非GPU的性能和成本能帶來顯著改善,讓利潤率達到或超過大型雲服務商的水平,否則我們不會輕舉妄動。”

大家都在追逐算力的安全感,納德拉認為存量算力已經足夠,需要精細化運營,奧特曼擔心的是算力不夠成為新模型、產品的掣肘。

於是,雙方越走越遠。

今年1月,微軟選擇了放手,與 OpenAI 修訂了合作條款,允許其使用第三方供應商的計算資源,很快甲骨文、CoreWeave這些雲廠,逐個都跟OpenAI簽訂了租賃協議。當然,為了體麵,微軟依舊擁有提供算力的優先合作權。

The Information援引投資人會議的消息稱,OpenAI計劃到2030年,將75%的算力來源轉移至星門項目上。

02 算力戰爭“燒掉”2.5萬億

OpenAI追逐算力,內部要實現“算力自主可控”,外部則是應對矽穀巨頭們的“算力戰爭”。

7月16日,The Information上線了專訪Meta CEO紮克伯格的內容,紮克伯格稱Meta正在建設多個數據中心集群。

“我們的人員正在夜以繼日地工作於普羅米修斯(Prometheus)和亥伯龍(Hyperion)項目中,這是我們的前兩個泰坦(Titan)集群,都將超過1吉瓦。亥伯龍將在未來幾年擴展到5吉瓦。我分享過它的圖片,從占地麵積來看,這個數據中心的規模占了曼哈頓的相當一部分。它太龐大了。”紮克伯格說。



Meta位於曼哈頓的亥伯龍數據中心項目示意圖 來源:紮克伯格

1吉瓦的數據中心是個什麽概念?

假設Meta在建的1吉瓦亥伯龍數據中心全部部署GB200 NVL72機架,按照單機架140KW的功耗計算,總計可容納7100+個機架,由於每個機架內置72張GPU,總計大約51萬張GPU,按照單機架300萬美元來折算,7100多個機架的總成本就超過210億美元。

而如果OpenAI和甲骨文新擴容的4.5吉瓦項目兌現,那麽未來OpenAI借助星門計劃掌握的GPU就有可能衝到接近250萬張GPU的規模。



到2026年的超大規模訓練集群,來源:SemiAnalysis

7月21日,知名研究機構SemiAnalysis基於其數據中心和加速器模型,披露了到2026年底,Anthropic、OpenAI和Meta的訓練集群數據。SemiAnalysis列舉了Meta的另一個1吉瓦容量的普羅米修斯數據中心項目,其采用GB200/300混搭,GPU總量達到50萬張,與我們對亥伯龍數據中心的預估結果基本一致。

能耗方麵,1吉瓦的GB200 NVL72數據中心,全年365天24小時滿負荷運行,預計需要87.6億度電。作為對比,日本東京2023年全年的用電量也就1300億度。

SemiAnalysis的跟蹤數據中未包含xAI,但作為OpenAI的頭號對手,xAI同樣在“瘋狂”投資基礎設施。

7月10日,xAI公布了旗下Grok 4模型,馬斯克在直播中透露該模型是在一個擁有超過20萬張H100 GPU的超級計算機集群。這句話的重點不止於這個20萬卡的集群,還在於xAI數據集群建設速度上——距離上一個節點“10萬卡”集群建成僅僅過去了9個月。

更誇張的是,xAI旗下首個10萬卡級別的Colossus AI 超級計算機集群,從建設到投入運營,耗時122天,建設效率“卷上天”。

關於為什麽要這麽卷基礎設施建設,馬斯克在直播中透露過自己的邏輯,他強調如果依賴雲廠的算力,協調一個10萬卡的集群,預計需要18到24個月。“我們想,18到24個月,這意味著失敗是必然的。”馬斯克說。

自建122天,協調雲廠的算力最快需要18個月,這也一定程度上可以解釋為什麽OpenAI不打算和微軟一起玩了——靠外部合作夥伴來協調算力效率太低,租賃算力隻能作為短期過渡方案,隻有自己主導才能可控。

可以想象這樣一幅畫麵:當OpenAI推出吉卜力風格圖片生成時,奧特曼說“我們的GPU快要融化了”,轉身向微軟協調算力支持卻碰了軟釘子——得到的回複竟是“你再等等”。此刻的奧特曼,內心恐怕隻剩下一聲無奈的歎息。



2023-2025年,AI基礎設施建設資本支出趨勢變化 來源:The Business Engineer

回到xAI的20萬卡集群上來,按H100單卡2.5萬美元-3萬美元的價格,大致可以估算一下成本,整個GPU部分的成本就需要50億美元-60億美元,這還不包括基建和運營、維護的成本。

OpenAI、xAI、Meta在數據中心上的投入,是行業AI資本支出擴張的一個縮影。

The Business Engineer分析師Gennaro Cuofano今年5月份發布一份研究報告,內容援引矽穀公司的業績、行業預測數據,梳理了2023、2024、2025三個年度矽穀大公司在AI上的資本支出,對應數值分別為1700億美元、2560億美元、3600億美元。

全年3600億美元,折合人民幣超過2.5萬億元,這個規模相比2023年增長超過110%。更重要的是,大公司的AI支出占據了全行業85%以上,這也意味著AI基礎設施建設的“馬太效應”不斷強化——未來頭部雲廠將掌握著行業的核心資源。

巨頭們紛紛卷入這場2.5萬億美元算力戰爭,也還有一個值得關注的背景——OBBB(大漂亮法案)簽署通過。

根據法案,科技巨頭們的大型數據中心基礎設施建設、研發等都可獲得稅收抵免。以設備全額折舊為例,比如企業購買價值 1 億美元的服務器等數據中心硬件。 按傳統折舊規則需要分5年進行,每年隻能抵扣2000萬美元。 根據法案,企業可在購置當年一次性抵扣1億美元應納稅所得額。

業務上有需求,競爭對手都在卷,政策又變相的起到了催化劑作用,都刺激著奧特曼、紮克伯格和馬斯克們,迫不及待的再打一場矽穀芯片戰爭。

如果非要問一個問題,有了百萬級的GPU,人類能打開AGI時代的大門嗎?

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(3)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

中國的maskpark,可能比韓國N號房更惡劣
致命的出差:一起車禍“撞碎”四個家庭
前男友把她賣給了十萬人:起底跨境偷拍群的肮髒交易
世衛組織發警報!一文讀懂這個席卷歐洲的新疫情
有兩家良心媒體已經把“溺亡”改為“遇難”了




24小時討論排行

美國海關突發提醒:綠卡持有者未隨身攜帶是犯法!
特朗普稱“要讓藥價降低1500%”,被批數學邏輯混亂
中國創新藥出海爆單:半年已攬下660億美元
中國原計劃趕超SpaceX 如今越來越渺茫 關鍵難題是…
特朗普突然拉馬斯克一把:想讓他的公司蓬勃發展
如此生活20年,直到墜入岩漿
梅根親寫回憶錄揭露凱特 戴安娜的悲劇或將重演
6名大學生選礦廠遇難 高工分析“為何救援時間長”
印度稱將全力申辦2036年奧運會 競爭對手有這幾國
特朗普試圖向馬斯克示好求和?馬斯克不買賬!
特朗普對奧巴馬:有多少恨,可以胡來
美司法部2號人物、特朗普前律師會見愛潑斯坦同夥
大轉向!還記得他嗎?如今公開辱罵特朗普…
馬克龍宣布法國將正式承認巴勒斯坦 以國不滿
馬克龍稱法將承認巴勒斯坦國 美駐以大使公開嘲笑
三年多來首次,烏克蘭為何爆發大規模反政府抗議?
文學城新聞
切換到網頁版

5000萬卡!馬斯克殺進芯片競賽,算力碾壓OpenAI

ZAKER 2025-07-23 18:58:46



OpenAI年底前將上線100萬張GPU,直觀感受就是新一輪芯片戰爭打響了。

7月21日,奧特曼在推特上預告,OpenAI到年底前將上線超過100萬張GPU。他還補充道,“對團隊感到自豪,但現在他們最好想想,怎麽在這個數量規模上再擴容100倍。”

5000萬卡!馬斯克殺進芯片競賽,算力碾壓OpenAI

奧特曼官宣OpenAI“百萬GPU”目標

這句看似簡單的預告,實則暗藏多重信號:

首先,規模碾壓對手。OpenAI的目標不再是10萬卡,20萬卡,要做就做100萬卡,這一規模將達到馬斯克旗下xAI訓練Grok 4所用20萬GPU的5倍;

其次,戰略自主。算力基礎設施的躍進,意味著OpenAI正逐步擺脫對微軟Azure的依賴——過去其算力高度綁定微軟,如今通過自建數據中心(如星門計劃)掌握主動權;

最後,OpenAI的行業野心也一覽無餘。“擴容100倍”直指AGI所需的終極算力目標,一場以算力為基石的AI軍備競賽已進入白熱化。

這裏還有個小插曲——就在奧特曼定下衝刺100萬卡目標之後,華爾街日報就下場拆台,稱星門計劃進度不順利,軟銀遲遲掏不出錢。但OpenAI隨即“滅火”:不僅官宣與甲骨文加碼投資,將星門計劃擴容4.5吉瓦,還強調一期項目已部分投入運營,多方合作進展順利。

隨後,馬斯克更是直接“放衛星”,5年內,xAI要部署到5000萬張H100 GPU的等效算力。



馬斯克提出xAI五年內5000萬卡目標

按照單卡平均4萬美元粗略計算,100萬卡規模,僅GPU部分價值就高達400億美元,這種燒錢量級和速度,在科技行業也是前所未有,基本接近一線巨頭們的年資本支出。

英偉達對此自然是樂見其成,問題是,行業數以萬計的計算卡需求,會將英偉達的市值推向什麽高度?

我們把視線再拉回算力上,OpenAI最近一次受算力影響最大的案例是3月份上線的“吉卜力風格”生圖功能,官方一度對產品做了限流處理,包括對生圖的速率進行暫時性限製,將免費用戶的生成額度限製在每日3次。奧特曼還在推特上高喊“我們的GPU快要融化了”,表麵是宣傳產品,也可以看做是給猶豫不決的投資人“上眼藥”。

顯然,星門計劃還在籌資階段,OpenAI、軟銀、甲骨文們雖然能湊出500多億美元,但還有一半的缺口要通過債務融資完成,想要刺激投資人們掏錢,就得釋放一些星門計劃合理性的信號。

01 奧特曼“腳踏三隻船”

OpenAI對算力的追逐由來已久,其算力來源包括自研、星門計劃、微軟三個主要渠道。

關於自研芯片這件事,一度傳出奧特曼要籌集7萬億美元下場造芯的消息。不過,去年2月份,奧特曼委婉的否認了此事,在他與英特爾前任CEO帕特·基辛格的爐邊談話中曾說過:“我們確實認為世界需要在AI計算(芯片)領域投入大量資金”。

根據行業的跟蹤和研究數據,OpenAI自研芯片一直在有序推進,其首款產品最快2026年問世。



科技公司自研芯片路線圖,標紅為已發布,*代表待確認,來源HSBC

匯豐銀行研究團隊6月下旬披露了一份科技公司自研ASIC的進度表,包括穀歌、Meta、亞馬遜、微軟、xAI等等在內的矽穀公司,清一色下場自研AI芯片。

研報顯示,OpenAI首款3納米自研芯片由博通代工設計,代號為Titan V.1,將於2026年發布,更先進的Titan V.2芯片將於2028年問世,但不確定為2nm工藝還是A16(1.6nm)工藝。



一位長期跟蹤半導體產業的分析師Paul則在推特上披露了OpenAI自研芯片的詳細規格和發布時間(如上圖),強調Titan V.1將在2026年第三季度問世,核心配置包括N3工藝、144GB HBM3e顯存、兩顆計算芯片,采用CoWoS-S封裝等,但他認為,Titan V.2將於2027年第三季度問世,比匯豐銀行的分析師團隊預測的2028年稍稍提前。

自研屬於長線規劃,在這條路跑通之前,OpenAI的腳開始伸向微軟之外的“另一條船”,牽頭搭建算力基礎設施。

今年1月份,OpenAI聯合軟銀、甲骨文推出星門項目,計劃四年在美國投資5000億美元,搭建算力基礎設施,首期投資1000億美元,其中軟銀承擔財務責任,OpenAI負運營責任。

這裏的重點是,運營權才是奧特曼在星門計劃中想得到的——想怎麽分配怎麽分配,打不打價格戰全都自己說了算。



美國得州阿比林星門項目工地航拍,來源:OpenAI

4個月之後,OpenAI又攢了一個“阿聯酋版”星門計劃,計劃聯合G42、甲骨文、英偉達、軟銀等合作夥伴,在當地構建一個1吉瓦的數據中心,預計2026年投入使用。

這些宏大的基礎設施項目兌現之前,OpenAI的算力供給仍然依賴微軟——兩家自2019年開始合作,微軟向其提供了超過130億美元的直接投資,同時成為OpenAI獨家算力提供商,微軟則在OpenAI的模型、收入分成等方麵獲得優先權,比如可獲得OpenAI 49%的利潤分配權,最多可達到1200億美元。

依賴微軟,也要避免被微軟“卡脖子”。從7萬億美元造芯傳聞,到5000億的星門計劃,再到阿聯酋版星門,OpenAI核心邏輯是構建一個由自己主導,不斷堆高的宏大算力敘事。

沒有規模化的算力,就會隨時被穀歌的價格戰碾壓,而規模化是穀歌的先天優勢。產品層麵,缺算力就如同“巧婦難為無米之炊”,就會出現更多“吉卜力風格”生圖能力受限的問題,所以之前才會就有小道消息說,伊利亞因為算力需求被砍憤而離職、GPT-5、DALL-E等就是因為算力短缺而被迫延遲發布等等。

巧合的是,在OpenAI“猛踩油門”的時候,微軟卻輕點了一下刹車。

今年4月份,美國券商TD Cowen分析師稱,微軟放棄了在美國和歐洲的2吉瓦新數據中心項目,微軟官方的回複稱數據中心容量都是多年前規劃,現在各地布局都已完善,所以做了一些靈活性的戰略調整。

微軟的戰略收縮,其實從去年底納德拉接受BG2播客訪談中就能找到信號,他當時毫不避諱的強調和奧特曼的分歧,“我們需要用嚴謹的方式來思考如何有效利用現有設備。同時也要考慮設備的使用壽命,不能一味地購買新設備。除非GPU的性能和成本能帶來顯著改善,讓利潤率達到或超過大型雲服務商的水平,否則我們不會輕舉妄動。”

大家都在追逐算力的安全感,納德拉認為存量算力已經足夠,需要精細化運營,奧特曼擔心的是算力不夠成為新模型、產品的掣肘。

於是,雙方越走越遠。

今年1月,微軟選擇了放手,與 OpenAI 修訂了合作條款,允許其使用第三方供應商的計算資源,很快甲骨文、CoreWeave這些雲廠,逐個都跟OpenAI簽訂了租賃協議。當然,為了體麵,微軟依舊擁有提供算力的優先合作權。

The Information援引投資人會議的消息稱,OpenAI計劃到2030年,將75%的算力來源轉移至星門項目上。

02 算力戰爭“燒掉”2.5萬億

OpenAI追逐算力,內部要實現“算力自主可控”,外部則是應對矽穀巨頭們的“算力戰爭”。

7月16日,The Information上線了專訪Meta CEO紮克伯格的內容,紮克伯格稱Meta正在建設多個數據中心集群。

“我們的人員正在夜以繼日地工作於普羅米修斯(Prometheus)和亥伯龍(Hyperion)項目中,這是我們的前兩個泰坦(Titan)集群,都將超過1吉瓦。亥伯龍將在未來幾年擴展到5吉瓦。我分享過它的圖片,從占地麵積來看,這個數據中心的規模占了曼哈頓的相當一部分。它太龐大了。”紮克伯格說。



Meta位於曼哈頓的亥伯龍數據中心項目示意圖 來源:紮克伯格

1吉瓦的數據中心是個什麽概念?

假設Meta在建的1吉瓦亥伯龍數據中心全部部署GB200 NVL72機架,按照單機架140KW的功耗計算,總計可容納7100+個機架,由於每個機架內置72張GPU,總計大約51萬張GPU,按照單機架300萬美元來折算,7100多個機架的總成本就超過210億美元。

而如果OpenAI和甲骨文新擴容的4.5吉瓦項目兌現,那麽未來OpenAI借助星門計劃掌握的GPU就有可能衝到接近250萬張GPU的規模。



到2026年的超大規模訓練集群,來源:SemiAnalysis

7月21日,知名研究機構SemiAnalysis基於其數據中心和加速器模型,披露了到2026年底,Anthropic、OpenAI和Meta的訓練集群數據。SemiAnalysis列舉了Meta的另一個1吉瓦容量的普羅米修斯數據中心項目,其采用GB200/300混搭,GPU總量達到50萬張,與我們對亥伯龍數據中心的預估結果基本一致。

能耗方麵,1吉瓦的GB200 NVL72數據中心,全年365天24小時滿負荷運行,預計需要87.6億度電。作為對比,日本東京2023年全年的用電量也就1300億度。

SemiAnalysis的跟蹤數據中未包含xAI,但作為OpenAI的頭號對手,xAI同樣在“瘋狂”投資基礎設施。

7月10日,xAI公布了旗下Grok 4模型,馬斯克在直播中透露該模型是在一個擁有超過20萬張H100 GPU的超級計算機集群。這句話的重點不止於這個20萬卡的集群,還在於xAI數據集群建設速度上——距離上一個節點“10萬卡”集群建成僅僅過去了9個月。

更誇張的是,xAI旗下首個10萬卡級別的Colossus AI 超級計算機集群,從建設到投入運營,耗時122天,建設效率“卷上天”。

關於為什麽要這麽卷基礎設施建設,馬斯克在直播中透露過自己的邏輯,他強調如果依賴雲廠的算力,協調一個10萬卡的集群,預計需要18到24個月。“我們想,18到24個月,這意味著失敗是必然的。”馬斯克說。

自建122天,協調雲廠的算力最快需要18個月,這也一定程度上可以解釋為什麽OpenAI不打算和微軟一起玩了——靠外部合作夥伴來協調算力效率太低,租賃算力隻能作為短期過渡方案,隻有自己主導才能可控。

可以想象這樣一幅畫麵:當OpenAI推出吉卜力風格圖片生成時,奧特曼說“我們的GPU快要融化了”,轉身向微軟協調算力支持卻碰了軟釘子——得到的回複竟是“你再等等”。此刻的奧特曼,內心恐怕隻剩下一聲無奈的歎息。



2023-2025年,AI基礎設施建設資本支出趨勢變化 來源:The Business Engineer

回到xAI的20萬卡集群上來,按H100單卡2.5萬美元-3萬美元的價格,大致可以估算一下成本,整個GPU部分的成本就需要50億美元-60億美元,這還不包括基建和運營、維護的成本。

OpenAI、xAI、Meta在數據中心上的投入,是行業AI資本支出擴張的一個縮影。

The Business Engineer分析師Gennaro Cuofano今年5月份發布一份研究報告,內容援引矽穀公司的業績、行業預測數據,梳理了2023、2024、2025三個年度矽穀大公司在AI上的資本支出,對應數值分別為1700億美元、2560億美元、3600億美元。

全年3600億美元,折合人民幣超過2.5萬億元,這個規模相比2023年增長超過110%。更重要的是,大公司的AI支出占據了全行業85%以上,這也意味著AI基礎設施建設的“馬太效應”不斷強化——未來頭部雲廠將掌握著行業的核心資源。

巨頭們紛紛卷入這場2.5萬億美元算力戰爭,也還有一個值得關注的背景——OBBB(大漂亮法案)簽署通過。

根據法案,科技巨頭們的大型數據中心基礎設施建設、研發等都可獲得稅收抵免。以設備全額折舊為例,比如企業購買價值 1 億美元的服務器等數據中心硬件。 按傳統折舊規則需要分5年進行,每年隻能抵扣2000萬美元。 根據法案,企業可在購置當年一次性抵扣1億美元應納稅所得額。

業務上有需求,競爭對手都在卷,政策又變相的起到了催化劑作用,都刺激著奧特曼、紮克伯格和馬斯克們,迫不及待的再打一場矽穀芯片戰爭。

如果非要問一個問題,有了百萬級的GPU,人類能打開AGI時代的大門嗎?