不一樣。OpenAI學習大量數據得出:1+3=4,但DeepSeek可以直接call OpenAI得到:1+3=4

所有跟帖: 

我隻是舉了一個淺顯的例子 -Bob007- 給 Bob007 發送悄悄話 (0 bytes) () 01/29/2025 postreply 18:38:41

OpenAI指控了,說有evidence -Bob007- 給 Bob007 發送悄悄話 (0 bytes) () 01/29/2025 postreply 20:07:33

我說的就是訓練的時候 -Bob007- 給 Bob007 發送悄悄話 (0 bytes) () 01/29/2025 postreply 20:26:36

美國之音也有個淺顯例子:OpenAi在湖裏釣魚,把釣到魚放到桶裏;DS到OpenAi的桶裏釣魚 -victor1988- 給 victor1988 發送悄悄話 (0 bytes) () 01/29/2025 postreply 19:09:26

LLM隻不過是從token串預測下一個token,最準確的ground truth還是原始數據,而不是什麽學到的東西 -IT-guy- 給 IT-guy 發送悄悄話 (201 bytes) () 01/29/2025 postreply 18:51:16

預測是需要reward反饋的,原始數據需要標記才能參與訓練。 -BeyondWind- 給 BeyondWind 發送悄悄話 (0 bytes) () 01/29/2025 postreply 19:24:19

就說時壇對立的兩派,誰說的話是ground truth? -Bob007- 給 Bob007 發送悄悄話 (0 bytes) () 01/29/2025 postreply 19:43:49

每一句都是ground truth,LLM學到的是the distribution of the next token -IT-guy- 給 IT-guy 發送悄悄話 (39 bytes) () 01/29/2025 postreply 20:26:00

就是這個distribution需要大量原始樣本,能call OpenAI當然可以走捷徑得到這個distribution -Bob007- 給 Bob007 發送悄悄話 (0 bytes) () 01/29/2025 postreply 20:31:11

請您先登陸,再發跟帖!