簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » GPT-5就是能耗怪獸!日耗等於150萬美國家庭電量

GPT-5就是能耗怪獸!日耗等於150萬美國家庭電量

文章來源: 騰訊科技 於 2025-09-03 20:29:49 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

從GPT-3的300兆瓦時到GPT-4數倍的能耗,再到GPT-5的推測,模型規模的幾何膨脹正帶來指數級的能源消耗。

GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35瓦時,最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。

GPT-5的日耗電量可達45吉瓦時,這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量。

在全球對人工智能的狂熱追逐中,電力逐漸成為最沉重的隱形成本。每一次新模型發布會,舞台上展示的是推理速度的飛躍、對話長度的突破、多模態的驚豔表現,而舞台背後,卻是一個個數據中心晝夜轟鳴的冷卻塔與閃爍不息的電表。

幾個月前,一位網友在X平台上向OpenAI CEO山姆·奧特曼(Sam Altman)提問:“我很好奇,人們在與模型互動時,如果頻繁說‘請’和‘謝謝’,這會讓OpenAI額外多花多少電費?”

麵對網友的調侃,奧特曼開玩笑似的回應:“哪怕因此多花了數千萬美元的電費,那錢也算花得值,畢竟你永遠無法預料,一句小小的‘請’或‘謝謝’,可能在人與AI的關係中留下怎樣的痕跡。”

比如麵對GPT-5的發布,雖然OpenAI一麵信心滿滿,點燃行業的熱情,但卻始終拒絕披露訓練與運行所消耗的電力規模。於是,掌聲與懷疑並行:人們一邊驚歎它的能力,一邊質問這座“黑匣子”究竟吞噬了多少能源?

專家的擔憂並非杞人憂天。隨著模型規模以幾何級數膨脹,能耗也在指數式攀升。環保組織和政策製定者提醒我們,這場技術競賽或許並不像宣傳片裏那樣純粹無害,它在照亮未來的同時,也點燃了能源與環境的危機感。當全球為智能的奇跡鼓掌時,也不得不麵對一個更現實的追問:誰來為這份昂貴的電力賬單埋單?

01. GPT-5或是目前能耗最高的AI大模型之一

2020年,GPT-3訓練耗電約300兆瓦時,引發環保擔憂。2023年,GPT-4雖無官方數據,但學術估算其能耗為GPT-3的數倍,碳排放可能達數萬噸二氧化碳當量。到了2025年,GPT-5的模型規模顯著擴大,能耗預計將進一步劇增。

業內專家指出,能耗已成為評估大語言模型真實成本的核心指標。羅德島大學(University of Rhode Island)人工智能實驗室的研究顯示,GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35 瓦時(相當於運行微波爐約76.46秒),最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。

根據微軟Microsoft Power BI(數據分析與可視化產品)的數據顯示(如上圖):GPT-5和o3-pro正成為能耗怪獸,GPT-4o係列是當前OpenAI產品線中較為節能的代表。o3-pro 的能耗最高,平均 33.07 Wh,遠超其他模型。GPT-5(high) 緊隨其後,平均 19.98 Wh。GPT-5(medium / low) 的能耗分別為 8.70 Wh 和 6.89 Wh,仍明顯高於 GPT-4 係列。

羅德島大學人工智能實驗室的研究方法揭示了估算能耗的複雜性。該團隊通過模型響應時間與硬件平均功率消耗的乘積進行能耗估算,但由於OpenAI未提供部署細節,研究團隊隻能假設GPT-5運行於微軟Azure的英偉達DGX H100或H200係統,並綜合考慮非GPU組件(如CPU、內存、存儲、冷卻設備)及Azure的環境乘數(如電力使用效率PUE、水使用效率WUE和碳強度因子CIF)。若OpenAI采用更高效的英偉達 Blackwell硬件,相關估算結果可能存在偏差。

OpenAI首席執行官山姆.奧特曼(Sam Altman)在6月的博客中提到,ChatGPT每次查詢耗電量為0.34瓦時,這與羅德島大學人工智能實驗室對GPT-4o的估算結果吻合,但未明確所指具體模型。“GPT-5或許是目前能耗最高的人工智能模型之一,”麻省理工學院計算機科學與人工智能實驗室研究員埃文.羅伯茨(埃文.羅伯茨)表示,“但公眾卻無從知曉其背後的資源消耗代價。”

相比較而言,穀歌在今年8月發布報告詳細說明了Gemini每次查詢所消耗的能源。總體而言,一個中位提示詞(median prompt),也就是在能耗範圍中處於中間位置的提示詞會消耗0.24瓦時的電力,相當於一台標準微波爐運行約一秒鍾的電量。

據業內推測,GPT-4的參數規模是GPT-3(1750億參數)的10倍,而GPT-5的參數規模可能遠超GPT-4。法國人工智能公司Mistral的研究表明,模型規模與能耗存在強相關性:"規模擴大10倍的模型,生成相同tokens所產生的資源影響將提高一個數量級"。

GPT-5采用“專家混合”架構,部分查詢僅激活部分參數,可降低短促查詢的能耗。但其推理模式需要更長的計算時間,可能使能耗增至5至10倍。加州大學河濱分校教授任邵磊(Shaolei Ren)指出:"基於模型規模判斷,GPT-5的資源消耗可能較GPT-3高出數個數量級"。

劍橋大學可持續計算中心主任露西.霍華德(Lucy Howard)也發出警告:“我們正處於一條危險的發展軌跡上。模型規模越大,能源消耗越高。若不采取有效措施,人工智能或將成為全球能源係統的新負擔。”

人工智能模型在訓練和推理階段的能耗不僅關乎經濟成本,更直接影響生態環境。倫敦能源研究所的報告指出,大規模人工智能模型的訓練需依托GPU集群進行數周甚至數月的持續運算,由此產生的電力消耗及冷卻需求將導致顯著的碳排放。該報告稱:“在某些情況下,一個人工智能模型的訓練過程可能產生相當於5000輛汽車一年行駛所排放的二氧化碳當量。”

02.GPT-5的能源胃口:日耗電量相當於150萬美國家庭用電需求

為什麽我們需要如此關注大模型的能耗問題?回顧曆史,每一次技術革命都需要獨特的基礎設施支撐:19世紀需要鐵軌,90年代需要光纖,而現在則需要塞滿圖形處理器的機架。高盛的報告指出,一個250兆瓦的“AI工廠”造價約120億美元,包括硬件在內。這個數字是建造成本的4倍,因為GPU占據了賬單的大頭。這不僅僅是錢的問題,而將是整個產業鏈的重構。

並且,模型訓練的電力黑洞訓練集群需要數千個GPU同時運轉,還要配備液冷係統。報告預測,2027年的新機架功耗將是2022年雲機架的50倍。即使用盡了過去所有的能效優化技巧,到2030年,全球數據中心的電力需求仍可能攀升160%。這種指數級增長讓人想起摩爾定律,隻不過這次增長的不是算力,而是能耗。

比如,在運行階段,GPT-5的能耗壓力同樣顯著。據估算,ChatGPT每日處理請求達25億次,若按每次查詢消耗18瓦時計算,GPT-5的日耗電量可達45吉瓦時(1吉瓦時等於100萬千瓦時),這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量,足以滿足一個小型國家的日常供電需求。

OpenAI拒絕披露能耗數據的背後,折射出企業的現實考量。公開能耗數據可能暴露其高昂的運營成本,進而影響投資者信心。目前,OpenAI主要依賴GPT係列產品的訂閱收入和API授權費用,以維持龐大的研發與計算開支。若GPT-5的能耗被證實遠超預期,市場可能對其商業可持續性產生質疑。華爾街分析師卡爾.米勒(Carl Miller)對此指出:"能源賬單正逐漸成為人工智能企業的隱形負擔。若電力成本持續攀升,企業的盈利空間將受到嚴重擠壓。"

此外,GPT-5的運行高度依賴微軟Azure基礎設施,這使得能耗問題不僅是OpenAI麵臨的挑戰,更成為整個雲計算行業的共同難題。微軟、穀歌、亞馬遜等雲服務提供商正麵臨日益增長的能源壓力。

03.能耗透明度的缺失,撕裂了行業信任

目前,能耗爭議已延伸至更深層次的倫理維度。批評者質疑,在全球仍有數十億人麵臨能源短缺的背景下,將大量電力用於訓練聊天機器人是否具有合理性?人工智能的社會價值能否抵消其產生的環境成本?

哈佛大學倫理學教授邁克爾.陳(Michael Chen)表示:“這不僅是技術問題,更是價值選擇問題。若人工智能的發展建立在巨大的資源消耗之上,我們必須思考它服務於誰,又讓誰做出了犧牲。”

目前,全球範圍內針對人工智能能耗的統一監管框架尚未形成。歐盟的《人工智能法案》主要聚焦風險分類與安全治理,未對能耗作出明確約束。美國能源監管機構也未將人工智能納入重點監測範圍。這使得科技企業在能耗披露方麵享有高度自主權,多傾向於自主選擇是否披露相關數據。

布魯金斯學會(Brookings Institution)研究員哈維爾.加西亞(Javier Garcia)表示:“透明度的缺失正加劇公眾對人工智能行業的信任危機。公眾有權知曉這些模型消耗了多少資源,而非僅看到其光鮮的功能展示。”

OpenAI拒絕披露GPT-5能耗數據的決定,已將一個技術問題推向社會辯論的前台。這不僅關乎環境與經濟,更觸及科技發展道路上的根本問題:我們願意為智能付出多少代價。在全球氣候和能耗壓力日益加劇的今天,人工智能的未來取決於行業、政策與社會的共同抉擇。GPT-5的能耗之謎,或許正是這一時代抉擇的縮影。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(6)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

雪崩!北京房價進入1w時代
加州醫護與患者體液合照 惹眾怒 遭集體解僱
馬斯克重磅官宣,稱它為“史詩級”產品
演唱會CEO偷腥事件 女主角和綠帽夫離婚
閱兵為掩蓋驚人真相?全國公務員被要求寫觀後感




24小時討論排行

紐約時報:中俄朝伊“軸心”想要什麽?
中方製裁日參議員石平:數典忘祖,賣祖求榮…
令人意外!張又俠竟重提“人民戰爭”
東北大媽日本地鐵手機開大聲看閱兵 遭勸止激動反罵
長安,其實從未有你我想象中那般繁華
中國最重要的五大城市群,定了
紐約時報:特朗普的粗暴外交如何將潛在盟友推入中國陣營
BBC訪問韓國工人:美國突襲現代車廠引發的恐慌和混亂
萬斯為狙殺毒販叫好 美參議員痛批:卑劣
除了炫技 中國人形機器人能走進生活嗎?
川普內閣晚宴爆衝突 財長罵政敵:打爛你他X的臉
耶路撒冷公車站槍案6死 定調恐攻 槍手巴勒斯坦人
全美14城房價齊跌 華人最愛社區在列 加州這城跌慘
獲邀到美國投資後遭大舉搜捕 韓企恐陷兩難境地
上訴法院維持原判 川普需向女作家支付$8330萬賠償
川普致愛潑斯坦生日賀卡內容曝光:願每天都是秘密
文學城新聞
切換到網頁版

GPT-5就是能耗怪獸!日耗等於150萬美國家庭電量

騰訊科技 2025-09-03 20:29:49

從GPT-3的300兆瓦時到GPT-4數倍的能耗,再到GPT-5的推測,模型規模的幾何膨脹正帶來指數級的能源消耗。

GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35瓦時,最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。

GPT-5的日耗電量可達45吉瓦時,這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量。

在全球對人工智能的狂熱追逐中,電力逐漸成為最沉重的隱形成本。每一次新模型發布會,舞台上展示的是推理速度的飛躍、對話長度的突破、多模態的驚豔表現,而舞台背後,卻是一個個數據中心晝夜轟鳴的冷卻塔與閃爍不息的電表。

幾個月前,一位網友在X平台上向OpenAI CEO山姆·奧特曼(Sam Altman)提問:“我很好奇,人們在與模型互動時,如果頻繁說‘請’和‘謝謝’,這會讓OpenAI額外多花多少電費?”

麵對網友的調侃,奧特曼開玩笑似的回應:“哪怕因此多花了數千萬美元的電費,那錢也算花得值,畢竟你永遠無法預料,一句小小的‘請’或‘謝謝’,可能在人與AI的關係中留下怎樣的痕跡。”

比如麵對GPT-5的發布,雖然OpenAI一麵信心滿滿,點燃行業的熱情,但卻始終拒絕披露訓練與運行所消耗的電力規模。於是,掌聲與懷疑並行:人們一邊驚歎它的能力,一邊質問這座“黑匣子”究竟吞噬了多少能源?

專家的擔憂並非杞人憂天。隨著模型規模以幾何級數膨脹,能耗也在指數式攀升。環保組織和政策製定者提醒我們,這場技術競賽或許並不像宣傳片裏那樣純粹無害,它在照亮未來的同時,也點燃了能源與環境的危機感。當全球為智能的奇跡鼓掌時,也不得不麵對一個更現實的追問:誰來為這份昂貴的電力賬單埋單?

01. GPT-5或是目前能耗最高的AI大模型之一

2020年,GPT-3訓練耗電約300兆瓦時,引發環保擔憂。2023年,GPT-4雖無官方數據,但學術估算其能耗為GPT-3的數倍,碳排放可能達數萬噸二氧化碳當量。到了2025年,GPT-5的模型規模顯著擴大,能耗預計將進一步劇增。

業內專家指出,能耗已成為評估大語言模型真實成本的核心指標。羅德島大學(University of Rhode Island)人工智能實驗室的研究顯示,GPT-5生成約1000個tokens的中等長度回答,平均消耗18.35 瓦時(相當於運行微波爐約76.46秒),最高可達40瓦時,遠超其前代產品GPT-4的2.12瓦時,增幅約為8.6倍。

根據微軟Microsoft Power BI(數據分析與可視化產品)的數據顯示(如上圖):GPT-5和o3-pro正成為能耗怪獸,GPT-4o係列是當前OpenAI產品線中較為節能的代表。o3-pro 的能耗最高,平均 33.07 Wh,遠超其他模型。GPT-5(high) 緊隨其後,平均 19.98 Wh。GPT-5(medium / low) 的能耗分別為 8.70 Wh 和 6.89 Wh,仍明顯高於 GPT-4 係列。

羅德島大學人工智能實驗室的研究方法揭示了估算能耗的複雜性。該團隊通過模型響應時間與硬件平均功率消耗的乘積進行能耗估算,但由於OpenAI未提供部署細節,研究團隊隻能假設GPT-5運行於微軟Azure的英偉達DGX H100或H200係統,並綜合考慮非GPU組件(如CPU、內存、存儲、冷卻設備)及Azure的環境乘數(如電力使用效率PUE、水使用效率WUE和碳強度因子CIF)。若OpenAI采用更高效的英偉達 Blackwell硬件,相關估算結果可能存在偏差。

OpenAI首席執行官山姆.奧特曼(Sam Altman)在6月的博客中提到,ChatGPT每次查詢耗電量為0.34瓦時,這與羅德島大學人工智能實驗室對GPT-4o的估算結果吻合,但未明確所指具體模型。“GPT-5或許是目前能耗最高的人工智能模型之一,”麻省理工學院計算機科學與人工智能實驗室研究員埃文.羅伯茨(埃文.羅伯茨)表示,“但公眾卻無從知曉其背後的資源消耗代價。”

相比較而言,穀歌在今年8月發布報告詳細說明了Gemini每次查詢所消耗的能源。總體而言,一個中位提示詞(median prompt),也就是在能耗範圍中處於中間位置的提示詞會消耗0.24瓦時的電力,相當於一台標準微波爐運行約一秒鍾的電量。

據業內推測,GPT-4的參數規模是GPT-3(1750億參數)的10倍,而GPT-5的參數規模可能遠超GPT-4。法國人工智能公司Mistral的研究表明,模型規模與能耗存在強相關性:"規模擴大10倍的模型,生成相同tokens所產生的資源影響將提高一個數量級"。

GPT-5采用“專家混合”架構,部分查詢僅激活部分參數,可降低短促查詢的能耗。但其推理模式需要更長的計算時間,可能使能耗增至5至10倍。加州大學河濱分校教授任邵磊(Shaolei Ren)指出:"基於模型規模判斷,GPT-5的資源消耗可能較GPT-3高出數個數量級"。

劍橋大學可持續計算中心主任露西.霍華德(Lucy Howard)也發出警告:“我們正處於一條危險的發展軌跡上。模型規模越大,能源消耗越高。若不采取有效措施,人工智能或將成為全球能源係統的新負擔。”

人工智能模型在訓練和推理階段的能耗不僅關乎經濟成本,更直接影響生態環境。倫敦能源研究所的報告指出,大規模人工智能模型的訓練需依托GPU集群進行數周甚至數月的持續運算,由此產生的電力消耗及冷卻需求將導致顯著的碳排放。該報告稱:“在某些情況下,一個人工智能模型的訓練過程可能產生相當於5000輛汽車一年行駛所排放的二氧化碳當量。”

02.GPT-5的能源胃口:日耗電量相當於150萬美國家庭用電需求

為什麽我們需要如此關注大模型的能耗問題?回顧曆史,每一次技術革命都需要獨特的基礎設施支撐:19世紀需要鐵軌,90年代需要光纖,而現在則需要塞滿圖形處理器的機架。高盛的報告指出,一個250兆瓦的“AI工廠”造價約120億美元,包括硬件在內。這個數字是建造成本的4倍,因為GPU占據了賬單的大頭。這不僅僅是錢的問題,而將是整個產業鏈的重構。

並且,模型訓練的電力黑洞訓練集群需要數千個GPU同時運轉,還要配備液冷係統。報告預測,2027年的新機架功耗將是2022年雲機架的50倍。即使用盡了過去所有的能效優化技巧,到2030年,全球數據中心的電力需求仍可能攀升160%。這種指數級增長讓人想起摩爾定律,隻不過這次增長的不是算力,而是能耗。

比如,在運行階段,GPT-5的能耗壓力同樣顯著。據估算,ChatGPT每日處理請求達25億次,若按每次查詢消耗18瓦時計算,GPT-5的日耗電量可達45吉瓦時(1吉瓦時等於100萬千瓦時),這一數值相當於150萬美國家庭的每日用電需求,或2至3座核反應堆的輸出量,足以滿足一個小型國家的日常供電需求。

OpenAI拒絕披露能耗數據的背後,折射出企業的現實考量。公開能耗數據可能暴露其高昂的運營成本,進而影響投資者信心。目前,OpenAI主要依賴GPT係列產品的訂閱收入和API授權費用,以維持龐大的研發與計算開支。若GPT-5的能耗被證實遠超預期,市場可能對其商業可持續性產生質疑。華爾街分析師卡爾.米勒(Carl Miller)對此指出:"能源賬單正逐漸成為人工智能企業的隱形負擔。若電力成本持續攀升,企業的盈利空間將受到嚴重擠壓。"

此外,GPT-5的運行高度依賴微軟Azure基礎設施,這使得能耗問題不僅是OpenAI麵臨的挑戰,更成為整個雲計算行業的共同難題。微軟、穀歌、亞馬遜等雲服務提供商正麵臨日益增長的能源壓力。

03.能耗透明度的缺失,撕裂了行業信任

目前,能耗爭議已延伸至更深層次的倫理維度。批評者質疑,在全球仍有數十億人麵臨能源短缺的背景下,將大量電力用於訓練聊天機器人是否具有合理性?人工智能的社會價值能否抵消其產生的環境成本?

哈佛大學倫理學教授邁克爾.陳(Michael Chen)表示:“這不僅是技術問題,更是價值選擇問題。若人工智能的發展建立在巨大的資源消耗之上,我們必須思考它服務於誰,又讓誰做出了犧牲。”

目前,全球範圍內針對人工智能能耗的統一監管框架尚未形成。歐盟的《人工智能法案》主要聚焦風險分類與安全治理,未對能耗作出明確約束。美國能源監管機構也未將人工智能納入重點監測範圍。這使得科技企業在能耗披露方麵享有高度自主權,多傾向於自主選擇是否披露相關數據。

布魯金斯學會(Brookings Institution)研究員哈維爾.加西亞(Javier Garcia)表示:“透明度的缺失正加劇公眾對人工智能行業的信任危機。公眾有權知曉這些模型消耗了多少資源,而非僅看到其光鮮的功能展示。”

OpenAI拒絕披露GPT-5能耗數據的決定,已將一個技術問題推向社會辯論的前台。這不僅關乎環境與經濟,更觸及科技發展道路上的根本問題:我們願意為智能付出多少代價。在全球氣候和能耗壓力日益加劇的今天,人工智能的未來取決於行業、政策與社會的共同抉擇。GPT-5的能耗之謎,或許正是這一時代抉擇的縮影。