關於AI敘事的爭論,有點像雞同鴨說法。我覺得如果你不明白統計是什麽,不知道基本程序是怎麽工作的,爭論隻是廢話

來源: 2025-11-23 11:29:11 [舊帖] [給我悄悄話] 本文已被閱讀:

我感覺幾乎大多數人都是拍腦門看文科生小作文就各種想象。

計算機對比人類最強大的地方是存儲和計算,擴展到搜索和遍曆。當年四色問題最後是用計算機徹底解決。

早在10多年前,人類最頂尖的棋手已經徹底下不過電腦。本質就是當棋盤棋子棋規固定的時候,對計算機來說,完全就是個遍曆搜索的能力問題。隨著硬件已經相應算法升級,人類就不行了。

但是直到今天,你會發現,AI能正確的輕鬆回答專業人士都說不清的東西,但是會莫名其妙出現一些連小學生都不會有的低級錯誤。

比如樓下有個帖子我貼出的Gemini的回答:您要求查詢的是 1900年至2100年 間(共301年

怎麽就301年呢?

 

要說現在的AI在算法上的進步,我也覺得很佩服。把搜索整理到的事情都數據化信息化進行存儲,然後還能給足夠的標簽用來查詢和尋找粘合關係,整個過程的確歎為觀止。

這個過程有點像在現實世界畫了一個碩大的棋盤,盡可能把所有東西都包括到棋盤中。如果真的能包括所有,那整個世界就像是在下棋,那計算機就是無所不能。所以AI敘事總是在強調提高算力。

但是,問題是,棋盤是二維的, 現實世界是無窮維的,現實生活中是在不停的變化的,棋盤棋子棋規都在不停的變。提高算力包括萬象的思路在早期效率會很明顯,但是過了閾值以後肯定會發生邊際效應遞減,而且是斷崖式遞減。GPT4 -> GPT5應該就是到了這個階段。

 

以上說的是框架畫棋盤。問題是棋盤如何畫出來呢?現在的AI完全基於統計模型。這裏的問題就更大了。

基於統計模型就意味著當你麵對一個問題的時候,無論是"因"還是"果",都隻能基於搜索結果,是已知的。而且尋求因果關係的粘合關係也隻能基於已知。如果遇見未知怎麽辦?人可能會猶豫糊塗,但是計算機無論如何都會給個結果,基本上隻能根據算法以及他能搜索到的內容胡說八道。且不說如果搜索到的結果是錯誤的情況,甚至是偽造的。

現在的神經模型,無論多複雜時尚,本質都是對每個結點做出結論然後加權。權重分配這個地方徹底就是一筆糊塗賬。AI也自稱是黑箱操作。恰恰這個權重分配決定了最終結果取舍。

 

下麵在說在編程方麵的程序實現。整個AI最終也還是if then else做出最終行為結論。

而且if then esle的內容就是前麵統計模型得到的來自於已知的東西。

 

對於人類行為而言,其實大多數是意識流,並非思考。

比如你下班以後,心裏想著事兒,或者聽著音樂,不知不覺的開車就回家了。

哪怕是考試,這已經是足夠需要思考的場景了,其實具體到每道題每個細節,至少對於高分學生來說,大多數部分都是下意識的肌肉記憶,這就是為什麽要刷題的原因。

 

人類有基本的common sense. 很多事情不需要思考也會有基本反應和判斷。但是現在的AI不可能有,而且以統計模型為基礎的永遠不會有。