是因為理論落後,導致科學家隻能嚐試不同的方法。

所有跟帖: 

這個說法有道理:即使是現在最流行的大語言模型,似乎也並沒有一個數學理論證明它一定行,或者在什麽條件下行,什麽條件下不行 -方外居士- 給 方外居士 發送悄悄話 (0 bytes) () 11/27/2025 postreply 14:48:55

無法證明,因為當今大模型的本質就是用神經網絡做統計,計算各種特征,包括隱形特征的概率分布。這種高度複雜的,大量的,深度嵌 -衡山老道- 給 衡山老道 發送悄悄話 衡山老道 的博客首頁 (402 bytes) () 11/27/2025 postreply 15:03:28

看看熱力學第二定律怎麽證明的,非常奇妙 -波粒子3- 給 波粒子3 發送悄悄話 (0 bytes) () 11/27/2025 postreply 15:08:39

計算機模仿神經元,模仿神經網絡,是AI的基本操作,與概率統計無關。:) -蔣聞銘- 給 蔣聞銘 發送悄悄話 蔣聞銘 的博客首頁 (0 bytes) () 11/27/2025 postreply 15:16:28

從in/out角度來看,AI用這種嵌套函數計算的是樣本空間(in)的一個概率分布函數(out) -方外居士- 給 方外居士 發送悄悄話 (0 bytes) () 11/27/2025 postreply 15:24:08

越說越玄,堆砌平常人聽不懂的詞句,是故弄玄虛,說了跟沒說一樣。 -蔣聞銘- 給 蔣聞銘 發送悄悄話 蔣聞銘 的博客首頁 (0 bytes) () 11/27/2025 postreply 15:19:36

看來你還是不懂。今天你們那過節,我就不多說了。不過你記住,任何需要數據采集分析的,必須有統計的參與。 -新手庚- 給 新手庚 發送悄悄話 新手庚 的博客首頁 (0 bytes) () 11/27/2025 postreply 16:29:43

+1,有數據就有統計 -manyworlds- 給 manyworlds 發送悄悄話 (0 bytes) () 11/27/2025 postreply 21:45:06

LLM的實質是自回歸預測,這決定了其幻覺不可避免。 -十具- 給 十具 發送悄悄話 十具 的博客首頁 (0 bytes) () 11/27/2025 postreply 17:52:47

傳統機器學習有理論保證自己在iid條件下工作。LLM能超越iid,因為它是基於依賴上下文的自回歸模型。這點還是知道的。 -十具- 給 十具 發送悄悄話 十具 的博客首頁 (0 bytes) () 11/27/2025 postreply 17:42:52

AI我不懂,好像跟概率統計連不上。 -蔣聞銘- 給 蔣聞銘 發送悄悄話 蔣聞銘 的博客首頁 (0 bytes) () 11/27/2025 postreply 18:41:25

唉,非要強到底。知道啥是回歸(分析)和回歸模型嗎?去查一下這是不是統計學的術語。:) -新手庚- 給 新手庚 發送悄悄話 新手庚 的博客首頁 (0 bytes) () 11/27/2025 postreply 20:03:33

LLM的巨大成功是有科學基礎的。LLM處理的基元是人類語言的詞,詞在認知學上就已經是智慧構建了,是知識的符號。再加上語義 -十具- 給 十具 發送悄悄話 十具 的博客首頁 (105 bytes) () 11/27/2025 postreply 20:42:57

也因為LLM的原理如此,LLM不可能是AGI或強AI。它不可能有自我意識,我們生而俱有的空間感知和抽象能力。做認知心理學 -十具- 給 十具 發送悄悄話 十具 的博客首頁 (66 bytes) () 11/27/2025 postreply 20:56:32

請您先登陸,再發跟帖!