聽過LLM的講座。準確說不是hallucinations,而是predictive error。LLM是一個

predictive model。一句話的每下一個字都是預測出來的,預測就不能保證100%accuracy。所以有時候會亂說。

meta為了提高準確性,推出concept model。就是先界定說什麽範疇,再決定怎麽說。不知道implement 沒有。

我是外行,隻聽了這些皮毛。這也是半年前的講座了。現在日新月異,可能又有許多更新了。

所有跟帖: 

基於統計的智能。 -肖莊- 給 肖莊 發送悄悄話 肖莊 的博客首頁 (0 bytes) () 11/25/2025 postreply 10:04:49

簡單地說 -京男- 給 京男 發送悄悄話 京男 的博客首頁 (179 bytes) () 11/25/2025 postreply 10:09:06

請您先登陸,再發跟帖!