幾個大科技都在準備搞自己的芯片,meta, Amazon 等,這個對nvda比較麻煩吧

所有跟帖: 

那是專用芯片,隻有自己用,根本不是競爭對手,是supplement -BrightLine- 給 BrightLine 發送悄悄話 BrightLine 的博客首頁 (0 bytes) () 01/30/2025 postreply 16:41:11

百佳爭鳴,沒人能壟斷,躺賺的日子到頭了 -花點牛牛- 給 花點牛牛 發送悄悄話 (0 bytes) () 01/30/2025 postreply 16:46:00

微軟絕對不會買亞麻的芯片,亞麻也不會買臉書的芯片,但是他們都會買NVDA 的通用芯片,這就是區別,哈哈 -BrightLine- 給 BrightLine 發送悄悄話 BrightLine 的博客首頁 (167 bytes) () 01/30/2025 postreply 16:47:45

NVDA不太好蒸餾啊,還有阿斯麥 -Pilot007- 給 Pilot007 發送悄悄話 (0 bytes) () 01/30/2025 postreply 16:52:40

NVDA的護城河太深,Apple,Google,Amazon,Meta 和AMD都差的太遠 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (199 bytes) () 01/30/2025 postreply 16:52:38

穀歌做了這麽多年的tensor芯片,還是沒人用,哈哈,隻有自己來,用在pixel上 -BrightLine- 給 BrightLine 發送悄悄話 BrightLine 的博客首頁 (167 bytes) () 01/30/2025 postreply 16:55:18

好奇問什麽TPU不行?當初alpha Go/Zero都是TPU上的啊。 -mobius- 給 mobius 發送悄悄話 (0 bytes) () 01/30/2025 postreply 18:11:47

And NVIDIA has Omniverse/Cosmos for physical AI -- guess it -越挫越勇2- 給 越挫越勇2 發送悄悄話 (43 bytes) () 01/30/2025 postreply 17:03:38

我覺得問題是inference需要的芯片少很多,現在的趨勢就是從training 向 inferencing轉變。所以對 -aloevera- 給 aloevera 發送悄悄話 (154 bytes) () 01/30/2025 postreply 17:27:46

但是用Inference到人數和次數,比用training的次數多10億倍,需要的GPU芯片更多 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (320 bytes) () 01/30/2025 postreply 18:18:32

inferencing據說不用很大算力解決,但是pretraining需要的算力大概是inferencing的十倍以上。 -aloevera- 給 aloevera 發送悄悄話 (0 bytes) () 01/30/2025 postreply 20:32:03

請您先登陸,再發跟帖!