幾個大科技都在準備搞自己的芯片,meta, Amazon 等,這個對nvda比較麻煩吧
所有跟帖:
•
那是專用芯片,隻有自己用,根本不是競爭對手,是supplement
-BrightLine-
♂
(0 bytes)
()
01/30/2025 postreply
16:41:11
•
百佳爭鳴,沒人能壟斷,躺賺的日子到頭了
-花點牛牛-
♂
(0 bytes)
()
01/30/2025 postreply
16:46:00
•
微軟絕對不會買亞麻的芯片,亞麻也不會買臉書的芯片,但是他們都會買NVDA 的通用芯片,這就是區別,哈哈
-BrightLine-
♂
(167 bytes)
()
01/30/2025 postreply
16:47:45
•
NVDA不太好蒸餾啊,還有阿斯麥
-Pilot007-
♂
(0 bytes)
()
01/30/2025 postreply
16:52:40
•
NVDA的護城河太深,Apple,Google,Amazon,Meta 和AMD都差的太遠
-未知-
♂
(199 bytes)
()
01/30/2025 postreply
16:52:38
•
穀歌做了這麽多年的tensor芯片,還是沒人用,哈哈,隻有自己來,用在pixel上
-BrightLine-
♂
(167 bytes)
()
01/30/2025 postreply
16:55:18
•
好奇問什麽TPU不行?當初alpha Go/Zero都是TPU上的啊。
-mobius-
♂
(0 bytes)
()
01/30/2025 postreply
18:11:47
•
And NVIDIA has Omniverse/Cosmos for physical AI -- guess it
-越挫越勇2-
♂
(43 bytes)
()
01/30/2025 postreply
17:03:38
•
我覺得問題是inference需要的芯片少很多,現在的趨勢就是從training 向 inferencing轉變。所以對
-aloevera-
♀
(154 bytes)
()
01/30/2025 postreply
17:27:46
•
但是用Inference到人數和次數,比用training的次數多10億倍,需要的GPU芯片更多
-未知-
♂
(320 bytes)
()
01/30/2025 postreply
18:18:32
•
inferencing據說不用很大算力解決,但是pretraining需要的算力大概是inferencing的十倍以上。
-aloevera-
♀
(0 bytes)
()
01/30/2025 postreply
20:32:03