從小紮對DeepSeek的分析,長持NVDA沒有風險

本帖於 2025-01-29 18:02:22 時間, 由普通用戶 未知 編輯

小紮說,像DS這樣的Thinking模型,實際可能會加大對算力的需求,特別是對像META這樣的公司。

Deepseek R1 reasoning/thinking 模型,輕訓練, 重推理。將計算量,轉移到推理(Inference)階段。實測DS,也發現它要《Thinking...》好長時間。回答每個問題,要花很長時間,要花更多的計算。

對於像META這樣有用戶眾多的公司,可能效益並不劃算。因為訓練就一次,而推理每天就有上億次。也就是說,Thinking模型 Scaling 不好。

小紮的看法確有道理。就像為什麽搞大的發電廠,而不是每家都有個小發電機的道理一樣。

這也就是說:NVDA 是裏外裏都是躺贏:

(1) OpenAI式模型:重訓練(需要大量GPUs), 輕推理 (需要較少量GPU);

(2)DeepSeek式Thinking 模型: 輕訓練(需要較少量GPU),重推理(需要大量GPU去支持大量用戶提問題)

分析下來,*長持NVDA* 沒有多少風險, 躺贏了。讓花街不懂的人,去瞎折騰吧!哈哈!

 

 

 

所有跟帖: 

最終掐死英偉達的不是DeepSeek,是美國政府 -鬼眼狂刀- 給 鬼眼狂刀 發送悄悄話 (0 bytes) () 01/29/2025 postreply 15:44:37

猜測老川已在懷疑老黃了 老黃對美國的ban一直不滿 他覺得搞技術應該全球視野 想法是對的 但是就算他去了中國 中國更不會 -心向往- 給 心向往 發送悄悄話 (150 bytes) () 01/29/2025 postreply 16:51:25

agree. -Maui2021- 給 Maui2021 發送悄悄話 (0 bytes) () 01/29/2025 postreply 15:51:35

今天去酒吧要少喝點,昨天買的BA和NVDA全水下了,雞腿過年已經吃了,今天要節酒,嗬嗬 -Hightides- 給 Hightides 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:01:26

老虎,我也在水下呢。你喝啥酒? -越挫越勇2- 給 越挫越勇2 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:03:54

我買的少,就個酒錢,酒吧一般啤酒多,在家whiskey,不用開車,嗬嗬 -Hightides- 給 Hightides 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:06:26

最近發現了一個紅酒 LifeVine, 0-added sugar, low carb. :-D -越挫越勇2- 給 越挫越勇2 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:09:05

謝謝下次我試試,紅酒我一不小心就能喝一瓶,後來發現糖太多了,轉向了烈酒。 -Hightides- 給 Hightides 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:11:59

我也是,一瓶轉眼就喝光了:-) Have a good night! -越挫越勇2- 給 越挫越勇2 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:31:10

我一直覺得模型複雜的話計算量隻會更大,沒聽說過模型越複雜,計算量越小的 -七月徐風- 給 七月徐風 發送悄悄話 (55 bytes) () 01/29/2025 postreply 16:05:47

國內博主今天就在那說,Open Ai即使查出DS違規,最多封ID,拿不出啥實質性處罰。 -加州lalin- 給 加州lalin 發送悄悄話 加州lalin 的博客首頁 (0 bytes) () 01/29/2025 postreply 16:17:00

皮挺厚的 -Maui2021- 給 Maui2021 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:29:37

META 現在有類似deepseek的應用嗎? -波粒子3- 給 波粒子3 發送悄悄話 (0 bytes) () 01/29/2025 postreply 16:35:43

Deepseek 不是應用,本身就是基於Llama3的大模型,估計功能與Llama4差不多 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (289 bytes) () 01/29/2025 postreply 17:38:36

重訓練輕推理,相當於中國教育模式,死記硬背的多。做各種練習題。 -from中國- 給 from中國 發送悄悄話 from中國 的博客首頁 (0 bytes) () 01/29/2025 postreply 22:41:00

重推理,時更智能的模式,舉一反三, 自己思考 -from中國- 給 from中國 發送悄悄話 from中國 的博客首頁 (0 bytes) () 01/29/2025 postreply 22:42:00

請您先登陸,再發跟帖!