這個說法有道理:即使是現在最流行的大語言模型,似乎也並沒有一個數學理論證明它一定行,或者在什麽條件下行,什麽條件下不行
所有跟帖:
•
無法證明,因為當今大模型的本質就是用神經網絡做統計,計算各種特征,包括隱形特征的概率分布。這種高度複雜的,大量的,深度嵌
-衡山老道-
♂
(402 bytes)
()
11/27/2025 postreply
15:03:28
•
看看熱力學第二定律怎麽證明的,非常奇妙
-波粒子3-
♂
(0 bytes)
()
11/27/2025 postreply
15:08:39
•
計算機模仿神經元,模仿神經網絡,是AI的基本操作,與概率統計無關。:)
-蔣聞銘-
♂
(0 bytes)
()
11/27/2025 postreply
15:16:28
•
從in/out角度來看,AI用這種嵌套函數計算的是樣本空間(in)的一個概率分布函數(out)
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
15:24:08
•
越說越玄,堆砌平常人聽不懂的詞句,是故弄玄虛,說了跟沒說一樣。
-蔣聞銘-
♂
(0 bytes)
()
11/27/2025 postreply
15:19:36
•
看來你還是不懂。今天你們那過節,我就不多說了。不過你記住,任何需要數據采集分析的,必須有統計的參與。
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
16:29:43
•
+1,有數據就有統計
-manyworlds-
♂
(0 bytes)
()
11/27/2025 postreply
21:45:06
•
LLM的實質是自回歸預測,這決定了其幻覺不可避免。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
17:52:47
•
傳統機器學習有理論保證自己在iid條件下工作。LLM能超越iid,因為它是基於依賴上下文的自回歸模型。這點還是知道的。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
17:42:52
•
AI我不懂,好像跟概率統計連不上。
-蔣聞銘-
♂
(0 bytes)
()
11/27/2025 postreply
18:41:25
•
唉,非要強到底。知道啥是回歸(分析)和回歸模型嗎?去查一下這是不是統計學的術語。:)
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
20:03:33
•
LLM的巨大成功是有科學基礎的。LLM處理的基元是人類語言的詞,詞在認知學上就已經是智慧構建了,是知識的符號。再加上語義
-十具-
♂
(105 bytes)
()
11/27/2025 postreply
20:42:57
•
也因為LLM的原理如此,LLM不可能是AGI或強AI。它不可能有自我意識,我們生而俱有的空間感知和抽象能力。做認知心理學
-十具-
♂
(66 bytes)
()
11/27/2025 postreply
20:56:32