準備周末讀斯坦福的“巨著”:AI Index Report 2025

回答: ……2T 參數,whatever it is成功的兔2025-04-11 14:23:34

所有跟帖: 

這個挺好的 如果AI 培訓 run out of data 怎麽辦? -挖礦- 給 挖礦 發送悄悄話 (0 bytes) () 04/11/2025 postreply 14:40:29

不是事先就分一部分training dataset 一部分validation dataset? -成功的兔- 給 成功的兔 發送悄悄話 (0 bytes) () 04/11/2025 postreply 14:47:27

想說的是總數據量 似乎已經到了極限 -挖礦- 給 挖礦 發送悄悄話 (0 bytes) () 04/11/2025 postreply 14:49:10

這是Machine Learning。LLM不這麽幹,LLM greedy,eats every bit of data -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 04/11/2025 postreply 14:51:02

請您先登陸,再發跟帖!