不一樣。OpenAI學習大量數據得出:1+3=4,但DeepSeek可以直接call OpenAI得到:1+3=4
所有跟帖:
•
我隻是舉了一個淺顯的例子
-Bob007-
♂
(0 bytes)
()
01/29/2025 postreply
18:38:41
•
OpenAI指控了,說有evidence
-Bob007-
♂
(0 bytes)
()
01/29/2025 postreply
20:07:33
•
我說的就是訓練的時候
-Bob007-
♂
(0 bytes)
()
01/29/2025 postreply
20:26:36
•
美國之音也有個淺顯例子:OpenAi在湖裏釣魚,把釣到魚放到桶裏;DS到OpenAi的桶裏釣魚
-victor1988-
♂
(0 bytes)
()
01/29/2025 postreply
19:09:26
•
LLM隻不過是從token串預測下一個token,最準確的ground truth還是原始數據,而不是什麽學到的東西
-IT-guy-
♂
(201 bytes)
()
01/29/2025 postreply
18:51:16
•
預測是需要reward反饋的,原始數據需要標記才能參與訓練。
-BeyondWind-
♂
(0 bytes)
()
01/29/2025 postreply
19:24:19
•
就說時壇對立的兩派,誰說的話是ground truth?
-Bob007-
♂
(0 bytes)
()
01/29/2025 postreply
19:43:49
•
每一句都是ground truth,LLM學到的是the distribution of the next token
-IT-guy-
♂
(39 bytes)
()
01/29/2025 postreply
20:26:00
•
就是這個distribution需要大量原始樣本,能call OpenAI當然可以走捷徑得到這個distribution
-Bob007-
♂
(0 bytes)
()
01/29/2025 postreply
20:31:11