“燒光”70000億,OpenAI與英偉達、台積電為敵

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)


有朋友問:Leslie,你是專業建廠出身,之前傳出山姆奧特曼要投資7萬億造芯,雖然本人不明確回應,但大媒體傳出來,一定不是空穴來風。如果有7萬億,造劃算,還是買劃算,如果造,可能要考慮哪些方麵的投入及因素?

奧特曼的“7萬億”傳聞的確是石破天驚,構想很有意思,回答這個問題得具備豐富的半導體建廠,工藝,運營等一係列知識,我們可以嚐試推算一下,如果手握7萬億美元,如何將這筆錢“合理地”花出去?

每萬片晶圓,建廠投資150億美元

首先,第一步必然是生產GPU邏輯芯片,這樣一來需要先蓋一座邏輯晶圓廠。我們以台積電最先進的2nm工廠為例,看看每萬片晶圓的資本投入情況。

按投資額劃分,晶圓廠各項投入比例大致為:製程設備:77%,土地與建築物:4%,潔淨室:5%,水電氣化學品等供應係統設施:14%。

光刻機是晶圓廠最大的製程設備投資項之一,占比在20%左右,而且2nm需要用到EUV光刻機(負責其中25層的光刻),成本相對更高,占比預計會提升至24%左右。

目前台積電的2nm還是采用低數值孔徑的EUV,對應ASML最新款的NXE:3800E,其每小時產出晶圓(WPH,Waferperhour)大致在190-200片的區間,單台設備每月產能預計2400片左右(具體計算見下表注釋),這意味著每萬片晶圓的產能,需要4台ASML的NXE:3800EUV光刻機,而除了EUV負責的25層外,其餘層還需要3台每小時產出晶圓295片的NXT:2100,以及一台KrFDUV光刻機。

*單台設備月產能=每小時產出晶圓數*運行時長*%customerefficiency(效率)*%doseageheadwind(vs.30mJ)*EUV層數*30天

按照ASML提供的數據,NXE:3800E售價2億美元左右,NXT:2100i約7500萬美元,KrFDUV約1500萬美元,這意味著2nm工藝的晶圓廠,每萬片晶圓產能,光刻機(含維修以及備件)的投入預計在13億美元左右。

按照光刻機的投入占全部製程設備24%的比例倒推,製程設備的總投入為54億美元,而製程設備占晶圓廠全部投資額的77%,以此倒推,2nm節點,每萬片晶圓產能,晶圓廠總投資額大致為71億美元。

每萬片晶圓產能,晶圓廠總投資額劃分,單位:美元

建完GPU邏輯芯片廠之後,還要考慮生產HBM的DRAM廠的建設。

我們以最先進的1gamma製程為例,盡管DRAM的EUV光刻層有所減少,但每萬片晶圓需要的設備數量卻不降反增,尤其是刻蝕設備,整體估算下來,1gamma製程的DRAM廠投資額大概在邏輯芯片晶圓廠的總投資額的85%,即60億美元左右。

補充說一下,DUV時代,DRAM廠的投資額大概為同級別的邏輯晶圓廠110%-120%,直到7nm節點,邏輯廠開始大量使用EUV光刻機,每萬片晶圓產能的投資額開始反超DRAM廠。

解決前段的GPU邏輯芯片和DRAM存儲芯片之後,還要解決後段的封裝問題,包括CoWoS先進封裝、HBM封裝兩部分。

目前,最先進的AI芯片采用的事SoIC+CoWoS封裝技術,HBM4將會采用混合鍵合(HybridBonding),每萬片晶圓的投資額將大幅提高至10億美元(含設備廠房)。另外,先進封裝涉及到的中介層,也還需利用DUV構建配套的65/45nm的前段晶圓廠,投資額為每萬片晶圓8億美元。也就是說,封裝部分,每萬片晶圓的整體投資額預計在18億美元左右。

每萬片晶圓產能,不同晶圓廠單位投資額,單位:美元

這個花錢的活涉及到的數據比較多,幫大家做一個小總結,每萬片晶圓產能,或者說單位投資額,對應2nm製程的邏輯晶圓廠、1gamma製程的DRAM廠、封裝廠(先進封裝+中介層,10億美元+8億美元)方麵的投資合計在150億美元左右。

年產600萬顆GPU,硬件成本500億美元

但是,GPU邏輯芯片、HBM內存以及中介層,對應的比例不是1:1:1的關係,所有總投資額還要在單位投資額的基礎上,按照係數增加,這個係數大致可以從一顆GPU,所需要的CPU、HBM內存、中介層的數量來推算。

以英偉達最新的Blackwell架構GPUB200的Diesize(814mm²)為例,每片晶圓可以切80顆芯片,按照台積電最好的工藝,良率大致在65%左右,即每片晶圓可以切50顆GoodDie。

附帶說一下,由於GPU邏輯芯片是大芯片,為了提高光刻的曝光清晰麵積,物鏡成像的景深就需要控製在相對較大水平,這會導致分辨率降低,是缺陷變多,良率下降的重要原因。

英偉達的B200搭配了GraceCPU,2顆GPU搭配1顆GraceCPU,那麽50顆GPU,需要搭配25顆CPU。按照3nm製程計算,以CPU的DieSize和良率預估,一片晶圓可以切300顆左右的CPU芯片,這意味著一片GPU晶圓,需要搭配0.08片CPU晶圓。

目前3nm節點,每萬片晶圓的投資是2nm節點的70%,大致50億美元,也就是說投入71億美元生產10000片GPU晶圓的同時,還要對應投資71億美元×70%×0.08,即4億美元,用於CPU晶圓的生產。

AI芯片的另一個重頭戲即HBM,英偉達的H100、H200標配6顆,到Blackwell架構的B200,則采用了8顆HBM3e內存。按照台積電最新的路線圖,2026年,一顆GPU可以搭配12顆HBM內存,屆時HBM的規格還將從12層堆疊的HBM3e,升級至16層堆疊的HBM4/4e。

如前文所述,2nm晶圓可以切出50顆GPU邏輯芯片,按照B200的標準,每片晶圓需要搭配400顆HBM3e內存。目前,1gamma製程的DRAM芯片,每片晶圓大概可以出1200顆DRAM顆粒,而按照85%的良率計算,最終可以得到1000顆DRAM顆粒,之後要將這些DRAM顆粒封裝成12層堆疊的HBM3e內存。目前,封裝的良率大概在80%左右,即一片DRAM晶圓可以出1000÷12*80%,約等於70顆左右12層堆疊的HBM3e內存。

也就是說,一片GPU晶圓,除了需要0.08片CPU晶圓,還需要5.7片DRAM晶圓。未來隨著GPU邏輯芯片搭配HBM顆粒數進一步增加,尤其是堆疊數量從12層提升到16層,GPU:DRAM晶圓1:5.7的比例,還會進一步擴大。

按現有先進封裝的中介層尺寸,一片晶圓可以完成15顆GPU邏輯芯片的封裝,對應一片GPU邏輯芯片的晶圓,需要3.3片晶圓的先進封裝。

每萬片晶圓產能,不同晶圓廠的建廠投資總額,單位:美元

一句話總結:每10000片GPU晶圓,需要800片CPU晶圓,5.7萬片DRAM晶圓,3.3萬片中介層晶圓,3.3萬片SoIC+CoWoS先進封裝,5.7萬片HBM封裝,對應的投資額,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476億美元。

每10000片GPU晶圓所有配套芯片的生產工廠需要耗費476億美元,加上其他雜七雜八費用直接算整數為500億美元,換算成GPU芯片數量,為每月50萬顆,一年600萬顆。

8年半可以燒完7萬億美元

投資500億美元,一年生產600萬顆GPU,這是個什麽概念?可以根據台積電CoWoS產能,來推算全世界的AIGPU的量,然後再進行對比。

2024年,台積電CoWoS總共31萬片的產能,其中95%都是給AIGPU,隻有一萬多片是給Xilinx的FPGA,剩下的近30萬片被英偉達、AMD以及全球互聯網大廠諸如Google,AWS,Meta,Mircosoft的自研ASIC芯片瓜分。

也就是說,台積電CoWoS產能代表全世界AI芯片產能,2024年80%的GPU還是隻使用2.5DCoWoS,英偉達的H100大約是每片29顆,其他自研ASIC則都高於這個標準,有的還超過40顆,目前隻有AMD的MI300使用SoIC封裝,每片約為15顆。

綜合下來,今年台積電30萬片CoWoS產能,對應大約是1000萬顆GPU,這也就是2024年全球AIGPU的大致總量。前麵提到,投入500億美元,每年可生產600萬顆GPU,也就是說,在2024年,想要生產滿足全世界需求的1000萬顆AIGPU,總投入需要830億美元。這個水平相當於台積電2-3年的資本支出,也大概是台積電Fab20A,一座月產12萬片的2nm芯片工廠的總投資額。

投入830億美元,就能生產出2024年全世界所需要的AI芯片,想要把奧特曼的7萬億美元花完,還有很多工作要做,畢竟830億美元也僅僅是建設芯片工廠的費用。

芯片廠、DRAM廠、封裝廠都蓋完之後,就要考慮生產服務器的工廠建設,還得蓋許多座類似工業富聯的這樣的工廠,不過這類服務器組裝工廠與芯片工廠相比來說,隻是小巫見大巫,把AI服務器所有產業鏈上的工廠全部建設起來,包含服務器,光模塊,液冷,銅線材,各式各樣的模具廠,年產1000萬顆GPU,按單個服務器8顆GPU算,即120萬台服務器,所有下遊工廠的總投資額大致為170億美元。加上上遊芯片工廠的830億美元,1000億美元則是2024年全球所有AI芯片+服務器出貨量所需的工廠建設總成本。

上下遊工廠建設隻是開端,工藝還需要持續的研發投入,包括設計、製造相關的研發費用,覆蓋GPU、CPU、HBM、先進封裝等等環節,這部分可以打包算一下英偉達、AMD、台積電、SK海力士的研發總額,大致300億美元。再加上服務器硬件研發、比如光模塊、也冷等等,研發部分的費用滿打滿算可以達到500億美元。

而對於OpenAI,在推進AGI的路上,也需要持續的進行模型研發投入,每年在這上麵的費用至少200億美元。

芯片部分的研發+AI部分的研發,每年的總投入至少在700億美元,如果要更快入的推進,加大研發投入是必然,所有推進AGI終極目標的研發投入,每年估算需加大投入到1000億美元。

以上的研發費用還不包括訓練費用,且訓練需要大量的水電資源消耗,這部分基礎設施同樣需要自建。

歐美地區目前建設1KW核電機組的成本大約4000美元,每百萬千瓦的核電機組一年發電量約為8.6億度電,根據IEA(國際能源協會)計算,2027年全球人工智能將耗費1340億度電,所以要建設155組百萬千瓦的核能機組,這需要6000億美元左右。

根據加州大學河濱分校的研究,2027年人工智能將耗費66億立方米的清潔淡水,大約是全英國一半的用水量,主要場景來自於服務器的冷卻,發電以及芯片製造這三大耗水環節,建設相應的水處理廠費用大約為1000億美元。

相比前麵的投資,製造環節的人力成本規模相對較小,重頭戲主要在芯片的設計,包括模型研發部分。

前段晶圓廠把人力配置拉滿 ,每萬片約需要1000人,後段約1500人,2000萬顆GPU年產能的所有前段工廠(含DRAM,中介層等)大約需要2萬人,人均年芯為15萬美元,後段封裝需要3萬人,人均年薪約為7萬美元,加上5000名各類芯片製造研發人員,人均20萬美元,每年芯片製造的人員薪資費用總共60億美元。

芯片設計以及大語言模型的人力成本方麵,按照英偉達+OpenAI+微軟服務器部門的1.5倍計算,約為5萬人,人均年薪30萬美元,共150億美元涉及服務器所有硬件製造的工廠人數為15萬人,電力以及用水保障設施人員15萬人,共30萬人,人均年薪8萬美元,總共為240億美元。

以上所有環節,人力薪資成本為每年60億+150億+240億共450億美元。

物料成本方麵,GPU及相關芯片,再加上所有服務器硬件的成本為2000美元/顆,年2000萬顆,即400億美元。服務器的運營費用方麵,人工420億美元+物料成本400億美元+其他雜費180億美元,取整數1000億美元。

OpenAI年產2000萬顆GPU的投資額及各項費用推算,單位:美元

以上即奧特曼親自下場造芯涉及到的主要環節的費用的拆解,如果替奧特曼花這筆錢,理想的方案是:2000億美元建設年產2000萬顆GPU(2024年全球約1000萬顆)以及涉及所有服務器硬件的製造工廠,然後為了推進AGI的終極目標每年投入1000億美元的研發投入,相關設計、研發、製造總人力成本1000億美元,投資7000億建設能源以及用水的基礎設施,同時編列2000億美元現金應付稅費以及各種雜費或者沒有計算到的費用,最後保留4000億美元作為可能漏算的預備金,如此一來,大約需要1.7萬億美元,就可以覆蓋2000萬顆AIGPU所有製造工廠的啟動資金。

運營資金方麵,要保持每年1000億美元的芯片以及硬件新產能投入,並持續推進摩爾定律,提升晶體管密度。每年新增2000億美元的新電力及新用水投入,再加上人工以及物料等每年約1000億美元,這樣的話,每年的極限是新增7000億美元的運營費用。

如此一來,不到2萬億美元即可覆蓋2024年全球AI芯片需求量兩倍的所有相關製造,能源基礎設施和運營費用,每年新增控製在7000億美元的水平,這筆預算大致可以再燒7.5年。

怒砸2萬億美元,擁有全世界AIGPU兩倍產能,奧特曼也無法壟斷全球人工智能——OpenAI的模型領先全球,建立在以台積電為代表的全球最先進的芯片製造,以及以英偉達為代表的GPU芯片設計的基礎之上,如果奧特曼另起爐灶,全方位生產AI芯片,幾乎是得罪了目前全球的芯片企業。

作為“舊勢力”,台積電、英偉達以及眾多芯片設計公司,有可能會扶持OpenAI的所有競爭對手,包括矽穀乃至於全球的大大小小做大模型以及AI應用的企業,諸如老對手DeepMind加上穀歌,AWS,Mircosoft等巨頭,以及Stability、OpenAI前創始人成立的Anthropic等創企。

即便OpenAI的芯片設計與製造能力與台積電、英偉達相當,麵對全球所有大小模型與算法的一眾企業,本身就不一定有絕對優勢,更何況帶著7萬億下場造芯片,站在英偉達、台積電的對立麵。

客觀地說,如果不考慮生態,GPU設計公司倒不是那麽無可替代。在GPU設計上,沒有英偉達還有AMD,甚至還有Cerebras這類設計整片晶圓麵積遠遠超過傳統GPU的AI芯片設計公司,但在芯片製造上,目前台積電呈現一騎絕塵的態勢。

以2024年為例,台積電可生產每平方毫米高達2.84億晶體管密度的N3P工藝,排名第二的英特爾還隻能生產每平方毫米1.8億晶體管的Intel4,第一跟第二之間已經出現了代差,如果在最高性能的芯片上不使用台積電工藝,在基礎上就落後競爭對手一個世代。

芯片製造無法用錢堆砌,更需要技術積累的行業,往死裏砸錢砸人,最快也要三年才能建設好芯片工廠並生產出芯片,對OpenAI來說,假設“7萬億”真實存在,麵對“舊勢力”的反撲,也至少要撐過這三年。