英偉達為什麽要跌?Deep Seek用的是H800訓練的。至於微軟和Meta, LLM又不是主要業務。

本帖於 2025-01-01 11:07:15 時間, 由普通用戶 maniac63 編輯

英偉達暴漲還差不多: 用低性能的上一代gpu都能訓練出一流模型,說明至少H100的潛力更大,被限製的是軟件算法而不是硬件。

假如你需要100塊gpu,現在50塊就能滿足你的需求。這不代表你隻買50塊cpu,而事實上你可能想買200塊了,因為降低的成本會有更多的地方可以用上gpu。英偉達自身立場一定是希望LLM成本降下來,這樣會有更多人買得起他們的gpu。

所有跟帖: 

我不是說你。是說這個壇子裏這幾天的無稽之談 -三心三意- 給 三心三意 發送悄悄話 (0 bytes) () 01/01/2025 postreply 11:05:00

嗯,祝新年快樂 -maniac63- 給 maniac63 發送悄悄話 (0 bytes) () 01/01/2025 postreply 11:06:17

新年快樂。財源滾滾:) -三心三意- 給 三心三意 發送悄悄話 (0 bytes) () 01/01/2025 postreply 11:12:00

請您先登陸,再發跟帖!