詳細解釋一下?俺去反駁小朋友

所有跟帖: 

看我上麵寫的 -風景線2- 給 風景線2 發送悄悄話 (0 bytes) () 01/16/2024 postreply 14:26:01

可能這就是LLM需要海量參數的原因 -pct- 給 pct 發送悄悄話 (0 bytes) () 01/16/2024 postreply 14:28:17

大道至簡。正是因為需要海量參數,LLM不算真正的AI,隻是深度學習、記憶model而已。 -小豬的黃香蕉- 給 小豬的黃香蕉 發送悄悄話 (0 bytes) () 01/16/2024 postreply 14:40:08

真敢瞎說。我說的記憶不是你說的意思,是指上下文。 -風景線2- 給 風景線2 發送悄悄話 (155 bytes) () 01/16/2024 postreply 16:16:48

請您先登陸,再發跟帖!