另開一個帖子,說說啥例子鑒別AI是碰瓷和騙局。

不能是成熟的現成的東西。比如1+2,顯然AI直接調用計算函數給結果。其實數學軟件已經能直接計算不定積分。

我覺得AI應該是建造了一個巨大碩大的倉庫,現成的結論或者解決方案就像是built in的函數一樣

並且每個東西的標簽很複雜,盡可能做到隻要沾邊就能扯上關係

其次不能是模糊的東西。比如說文字,同一個意思很容易寫出來多種表達,這就是為什麽OpenAI決定搞ChatGPT 的原因。明確的對錯才能看清是否碰瓷。

 

我找到的例子就是陽曆(公曆)和陰曆(農曆)的對照。

這東西是確定的,精確的,但是從試驗來看顯然對美國的AI來說比較生僻,他們沒有放入精確對應的庫裏麵。

昨天晚上我問春節跟情人節重合,x.ai很快給出答案,但是ChatGPT 第一時間徹底在扯淡。

後來換了一個非典型日期,x.ai也開始扯淡了。我估計是因為春節還是太特殊了,很容易搜索到日期。

其實AI很容易就能找到萬年曆,我試驗過就算是查100年內手動也就是不到2分鍾,每年一秒鍾都用不了

但是可能對他來說陰曆是個過於陌生的東西,即使他能找到萬年曆也枉然。所以他們搜索到了萬年曆還是繼續瞎搞,因為他不具備推理和思維。

而且這個問題有意思在於,很明顯他知道春節對應的是哪天,所以別問正月某日,因為比如正月十五一定是春節開始第15天,他不會錯。

但是問他臘月就錯誤百出了。因為比如春節是2月1日,但是1月31日可能是臘月30,也可能是臘月29。

就是這麽簡單的問題,充分說明所謂的AI智能隻是搜索抄襲拚湊加碰瓷。顯然如果它把陰曆也像陽曆一樣搞到係統裏,幾乎就是built in函數,肯定就毫無問題了。但是這不是學習,是人類給他灌進去的。其實都是提前灌好了內容和套路。

這事兒就像是下棋。如果問題是在提前灌輸的棋盤範圍內並且棋規固定,那AI就是神,人類無論多優秀的棋手也下不過。但是一旦出了棋盤或者違反了棋規,AI隻能還是在棋盤內搜索拚湊去碰瓷。

 

所有跟帖: 

換個數學角度,很複雜難度很大的不定積分,我們很難手解但是AI可以秒解。但是換一個沒難度的中小學數學題它就會傻眼 -害怕- 給 害怕 發送悄悄話 (354 bytes) () 10/14/2025 postreply 12:34:23

3 -挖礦- 給 挖礦 發送悄悄話 挖礦 的博客首頁 (0 bytes) () 10/14/2025 postreply 12:42:52

是的。問題是現在AI從業人員已經推理吹到要覺醒了。變現的問題是出了事兒怎麽算 -害怕- 給 害怕 發送悄悄話 (160 bytes) () 10/14/2025 postreply 12:46:05

還有就是現在的最根子的模型和算法決定了永遠不會有智能,除非完全舍棄機器學習另辟蹊徑 -害怕- 給 害怕 發送悄悄話 (0 bytes) () 10/14/2025 postreply 12:47:35

還有就是人類不會可以交白卷,可以躺平放棄,不會不懂裝懂硬來胡來。真的代替人全都是定時炸彈。說白了人可以愚蠢但是有基本理性 -害怕- 給 害怕 發送悄悄話 (122 bytes) () 10/14/2025 postreply 12:51:47

alphago從棋譜中學棋,計算每一步的勝率,不是真正智能。alpha0左右互博,自己學習,才是 -cnnbull02- 給 cnnbull02 發送悄悄話 (0 bytes) () 10/14/2025 postreply 12:59:25

本質上沒區別。隻要是下棋,棋盤和規則固定,理論上可以遍曆所有變化 -害怕- 給 害怕 發送悄悄話 (392 bytes) () 10/14/2025 postreply 13:06:43

ai如果隻會下棋,它根本不會火。現在ai能像個5歲孩童跟你對話幫你做事了,還不得瑟?你真以為人類智能多牛?那是前人智慧的 -lanyin0314- 給 lanyin0314 發送悄悄話 (479 bytes) () 10/14/2025 postreply 15:03:56

你根本不理解什麽是碰瓷。根本就沒智商,其實隻是灌輸的足夠多多到了可以去碰瓷。如果圈定範圍就像下棋一樣可以秒殺人類 -害怕- 給 害怕 發送悄悄話 (0 bytes) () 10/14/2025 postreply 16:38:41

請您先登陸,再發跟帖!