套的函數群,通過有限樣本(數據集)來確定這些函數的參數(線性函數的係數(weights)和bias),使得總體誤差最小,然後用這個函數群來計算新樣本的各種特征的概率分布。這麽複雜的東西,不可能定量分析最後的誤差。誤差在應用中就以幻覺的具體形式出現。這是當今大模型不可解決的難題。
無法證明,因為當今大模型的本質就是用神經網絡做統計,計算各種特征,包括隱形特征的概率分布。這種高度複雜的,大量的,深度嵌
所有跟帖:
•
看看熱力學第二定律怎麽證明的,非常奇妙
-波粒子3-
♂
(0 bytes)
()
11/27/2025 postreply
15:08:39
•
計算機模仿神經元,模仿神經網絡,是AI的基本操作,與概率統計無關。:)
-蔣聞銘-
♂
(0 bytes)
()
11/27/2025 postreply
15:16:28
•
從in/out角度來看,AI用這種嵌套函數計算的是樣本空間(in)的一個概率分布函數(out)
-方外居士-
♂
(0 bytes)
()
11/27/2025 postreply
15:24:08
•
越說越玄,堆砌平常人聽不懂的詞句,是故弄玄虛,說了跟沒說一樣。
-蔣聞銘-
♂
(0 bytes)
()
11/27/2025 postreply
15:19:36
•
看來你還是不懂。今天你們那過節,我就不多說了。不過你記住,任何需要數據采集分析的,必須有統計的參與。
-新手庚-
♂
(0 bytes)
()
11/27/2025 postreply
16:29:43
•
+1,有數據就有統計
-manyworlds-
♂
(0 bytes)
()
11/27/2025 postreply
21:45:06
•
LLM的實質是自回歸預測,這決定了其幻覺不可避免。
-十具-
♂
(0 bytes)
()
11/27/2025 postreply
17:52:47