是我發的,所以你想說什麽呢?

因為deepseek達到同等效果用的資源比chatgpt少,所以scaling law沒問題? 可是deepseek再把參數提升上去本身效果也遠不是(log)線性的了。

所有跟帖: 

你不是專家,所以你可能就無法理解什麽叫做“性能與資源消耗的log成正比” -bulubulu- 給 bulubulu 發送悄悄話 (320 bytes) () 02/21/2025 postreply 08:06:34

Current implementation of llm models will continue -bulubulu- 給 bulubulu 發送悄悄話 (301 bytes) () 02/21/2025 postreply 08:20:34

請您先登陸,再發跟帖!