從GPT-3的300兆瓦時到GPT-4數倍的能耗,再到GPT-5的推測,模型規模的幾何膨脹正帶來指數級的能源消耗。
GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35瓦時,最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。
GPT-5的日耗電量可達45吉瓦時,這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量。
在全球對人工智能的狂熱追逐中,電力逐漸成為最沉重的隱形成本。每一次新模型發布會,舞台上展示的是推理速度的飛躍、對話長度的突破、多模態的驚豔表現,而舞台背後,卻是一個個數據中心晝夜轟鳴的冷卻塔與閃爍不息的電表。
幾個月前,一位網友在X平台上向OpenAI CEO山姆·奧特曼(Sam
Altman)提問:“我很好奇,人們在與模型互動時,如果頻繁說‘請’和‘謝謝’,這會讓OpenAI額外多花多少電費?”
麵對網友的調侃,奧特曼開玩笑似的回應:“哪怕因此多花了數千萬美元的電費,那錢也算花得值,畢竟你永遠無法預料,一句小小的‘請’或‘謝謝’,可能在人與AI的關係中留下怎樣的痕跡。”
比如麵對GPT-5的發布,雖然OpenAI一麵信心滿滿,點燃行業的熱情,但卻始終拒絕披露訓練與運行所消耗的電力規模。於是,掌聲與懷疑並行:人們一邊驚歎它的能力,一邊質問這座“黑匣子”究竟吞噬了多少能源?
專家的擔憂並非杞人憂天。隨著模型規模以幾何級數膨脹,能耗也在指數式攀升。環保組織和政策製定者提醒我們,這場技術競賽或許並不像宣傳片裏那樣純粹無害,它在照亮未來的同時,也點燃了能源與環境的危機感。當全球為智能的奇跡鼓掌時,也不得不麵對一個更現實的追問:誰來為這份昂貴的電力賬單埋單?
01. GPT-5或是目前能耗最高的AI大模型之一
2020年,GPT-3訓練耗電約300兆瓦時,引發環保擔憂。2023年,GPT-4雖無官方數據,但學術估算其能耗為GPT-3的數倍,碳排放可能達數萬噸二氧化碳當量。到了2025年,GPT-5的模型規模顯著擴大,能耗預計將進一步劇增。
業內專家指出,能耗已成為評估大語言模型真實成本的核心指標。羅德島大學(University of Rhode
Island)人工智能實驗室的研究顯示,GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35
瓦時(相當於運行微波爐約76.46秒),最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。
根據微軟Microsoft Power
BI(數據分析與可視化產品)的數據顯示(如上圖):GPT-5和o3-pro正成為能耗怪獸,GPT-4o係列是當前OpenAI產品線中較為節能的代表。o3-pro
的能耗最高,平均 33.07 Wh,遠超其他模型。GPT-5(high) 緊隨其後,平均 19.98 Wh。GPT-5(medium
/ low) 的能耗分別為 8.70 Wh 和 6.89 Wh,仍明顯高於 GPT-4 係列。
羅德島大學人工智能實驗室的研究方法揭示了估算能耗的複雜性。該團隊通過模型響應時間與硬件平均功率消耗的乘積進行能耗估算,但由於OpenAI未提供部署細節,研究團隊隻能假設GPT-5運行於微軟Azure的英偉達DGX
H100或H200係統,並綜合考慮非GPU組件(如CPU、內存、存儲、冷卻設備)及Azure的環境乘數(如電力使用效率PUE、水使用效率WUE和碳強度因子CIF)。若OpenAI采用更高效的英偉達
Blackwell硬件,相關估算結果可能存在偏差。
OpenAI首席執行官山姆.奧特曼(Sam
Altman)在6月的博客中提到,ChatGPT每次查詢耗電量為0.34瓦時,這與羅德島大學人工智能實驗室對GPT-4o的估算結果吻合,但未明確所指具體模型。“GPT-5或許是目前能耗最高的人工智能模型之一,”麻省理工學院計算機科學與人工智能實驗室研究員埃文.羅伯茨(埃文.羅伯茨)表示,“但公眾卻無從知曉其背後的資源消耗代價。”
相比較而言,穀歌在今年8月發布報告詳細說明了Gemini每次查詢所消耗的能源。總體而言,一個中位提示詞(median
prompt),也就是在能耗範圍中處於中間位置的提示詞會消耗0.24瓦時的電力,相當於一台標準微波爐運行約一秒鍾的電量。
據業內推測,GPT-4的參數規模是GPT-3(1750億參數)的10倍,而GPT-5的參數規模可能遠超GPT-4。法國人工智能公司Mistral的研究表明,模型規模與能耗存在強相關性:"規模擴大10倍的模型,生成相同tokens所產生的資源影響將提高一個數量級"。
GPT-5采用“專家混合”架構,部分查詢僅激活部分參數,可降低短促查詢的能耗。但其推理模式需要更長的計算時間,可能使能耗增至5至10倍。加州大學河濱分校教授任邵磊(Shaolei
Ren)指出:"基於模型規模判斷,GPT-5的資源消耗可能較GPT-3高出數個數量級"。
劍橋大學可持續計算中心主任露西.霍華德(Lucy
Howard)也發出警告:“我們正處於一條危險的發展軌跡上。模型規模越大,能源消耗越高。若不采取有效措施,人工智能或將成為全球能源係統的新負擔。”
人工智能模型在訓練和推理階段的能耗不僅關乎經濟成本,更直接影響生態環境。倫敦能源研究所的報告指出,大規模人工智能模型的訓練需依托GPU集群進行數周甚至數月的持續運算,由此產生的電力消耗及冷卻需求將導致顯著的碳排放。該報告稱:“在某些情況下,一個人工智能模型的訓練過程可能產生相當於5000輛汽車一年行駛所排放的二氧化碳當量。”
02.GPT-5的能源胃口:日耗電量相當於150萬美國家庭用電需求
為什麽我們需要如此關注大模型的能耗問題?回顧曆史,每一次技術革命都需要獨特的基礎設施支撐:19世紀需要鐵軌,90年代需要光纖,而現在則需要塞滿圖形處理器的機架。高盛的報告指出,一個250兆瓦的“AI工廠”造價約120億美元,包括硬件在內。這個數字是建造成本的4倍,因為GPU占據了賬單的大頭。這不僅僅是錢的問題,而將是整個產業鏈的重構。
並且,模型訓練的電力黑洞訓練集群需要數千個GPU同時運轉,還要配備液冷係統。報告預測,2027年的新機架功耗將是2022年雲機架的50倍。即使用盡了過去所有的能效優化技巧,到2030年,全球數據中心的電力需求仍可能攀升160%。這種指數級增長讓人想起摩爾定律,隻不過這次增長的不是算力,而是能耗。
比如,在運行階段,GPT-5的能耗壓力同樣顯著。據估算,ChatGPT每日處理請求達25億次,若按每次查詢消耗18瓦時計算,GPT-5的日耗電量可達45吉瓦時(1吉瓦時等於100萬千瓦時),這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量,足以滿足一個小型國家的日常供電需求。
OpenAI拒絕披露能耗數據的背後,折射出企業的現實考量。公開能耗數據可能暴露其高昂的運營成本,進而影響投資者信心。目前,OpenAI主要依賴GPT係列產品的訂閱收入和API授權費用,以維持龐大的研發與計算開支。若GPT-5的能耗被證實遠超預期,市場可能對其商業可持續性產生質疑。華爾街分析師卡爾.米勒(Carl
Miller)對此指出:"能源賬單正逐漸成為人工智能企業的隱形負擔。若電力成本持續攀升,企業的盈利空間將受到嚴重擠壓。"
此外,GPT-5的運行高度依賴微軟Azure基礎設施,這使得能耗問題不僅是OpenAI麵臨的挑戰,更成為整個雲計算行業的共同難題。微軟、穀歌、亞馬遜等雲服務提供商正麵臨日益增長的能源壓力。
03.能耗透明度的缺失,撕裂了行業信任
目前,能耗爭議已延伸至更深層次的倫理維度。批評者質疑,在全球仍有數十億人麵臨能源短缺的背景下,將大量電力用於訓練聊天機器人是否具有合理性?人工智能的社會價值能否抵消其產生的環境成本?
哈佛大學倫理學教授邁克爾.陳(Michael
Chen)表示:“這不僅是技術問題,更是價值選擇問題。若人工智能的發展建立在巨大的資源消耗之上,我們必須思考它服務於誰,又讓誰做出了犧牲。”
目前,全球範圍內針對人工智能能耗的統一監管框架尚未形成。歐盟的《人工智能法案》主要聚焦風險分類與安全治理,未對能耗作出明確約束。美國能源監管機構也未將人工智能納入重點監測範圍。這使得科技企業在能耗披露方麵享有高度自主權,多傾向於自主選擇是否披露相關數據。
布魯金斯學會(Brookings Institution)研究員哈維爾.加西亞(Javier
Garcia)表示:“透明度的缺失正加劇公眾對人工智能行業的信任危機。公眾有權知曉這些模型消耗了多少資源,而非僅看到其光鮮的功能展示。”
OpenAI拒絕披露GPT-5能耗數據的決定,已將一個技術問題推向社會辯論的前台。這不僅關乎環境與經濟,更觸及科技發展道路上的根本問題:我們願意為智能付出多少代價。在全球氣候和能耗壓力日益加劇的今天,人工智能的未來取決於行業、政策與社會的共同抉擇。GPT-5的能耗之謎,或許正是這一時代抉擇的縮影。