也就是說,無論哪個大公司想要自己設計硬件用來訓練AI,還需要自己開發軟件包,再移植AI代碼。要花很多時間和資源。

來源: uptrend 2024-02-03 21:45:12 [] [博客] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (0 bytes)

所有跟帖: 

大多數AI模型都有PyTorch 或者tensorflow 實現。PyTorch 支持OpenCL,OpenCL可以在 -study169- 給 study169 發送悄悄話 (131 bytes) () 02/03/2024 postreply 22:05:03

你說的不錯。但時間就是金錢,而且是成千上萬億美元的規模。 -uptrend- 給 uptrend 發送悄悄話 uptrend 的博客首頁 (0 bytes) () 02/03/2024 postreply 22:12:46

所以現階段大家訓練模型都是用Nvidia GPU,但將來運行大模型就會用各種自研的芯片 -study169- 給 study169 發送悄悄話 (50 bytes) () 02/03/2024 postreply 22:18:50

Nvidia GPU的更新換代很快,沒那麽容易被替代。 -uptrend- 給 uptrend 發送悄悄話 uptrend 的博客首頁 (0 bytes) () 02/03/2024 postreply 22:23:35

隻是LLM基礎模型訓練要求高。LLM微調訓練筆記本就可以勝任了。我們公司幾乎所有項目都是AI,連A100 -study169- 給 study169 發送悄悄話 (18 bytes) () 02/03/2024 postreply 22:28:05

開源的LLM雖然能微調,但是性能不咋樣,用於專項評測時和隨機回答的結果差不多。你公司用的是開源的SLMs吧? -uptrend- 給 uptrend 發送悄悄話 uptrend 的博客首頁 (0 bytes) () 02/03/2024 postreply 22:37:14

除了專做LLM基礎模型的,大多數公司用開源模型,我們也是。AI應用有太多細分領域 -study169- 給 study169 發送悄悄話 (0 bytes) () 02/03/2024 postreply 22:52:15

大概什麽性能的筆記本?要有獨立顯卡嗎?我們都沒微調,隻是用開源模型做推理,都運行不出來。 -Wm.Knabe- 給 Wm.Knabe 發送悄悄話 (110 bytes) () 02/04/2024 postreply 01:41:20

一個同事用筆記本做過演示 -study169- 給 study169 發送悄悄話 (300 bytes) () 02/04/2024 postreply 04:17:05

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉/移除任何Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock/Adblock plus

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”