我這兩天有個問題想不通透,所以昨天幹脆扔給deepseek去幫我分析。因為這隻是我個人的疑問,所以也沒打算加班寫文章。但在和deepseek溝通的過程中,倒是發現了另外一件事,或許更需要跟大家聊聊。
不過deepseek一如既往的話癆,字數太多,我隻能換到PC版截圖了聊天記錄。截圖字小,如果看不清可以點開看大圖。
1.首先在deepseek回答我的問題後,我發現裏麵有一個重要信息和我以前所了解的不符,也就是下圖紅框的部分。


2.所以我複製了一下之前的新聞內容,追問了一下。而deepseek則很快認識到了自己的錯誤,說明的確有這個要求。但是這次的回答中又有另外一個更明顯的問題。


3.我隻好繼續追問它為什麽給出了這個新的錯誤信息。它重新檢索之後,反省說自己其實沒找到過今年發表的聲明,還跟我道歉。


4.我好奇它連續出錯的原因,問它為什麽會犯這種錯誤。它承認錯誤倒是很快,說明自己之前犯錯的原因包括:規則理解偏差、信息更新延遲和過度推斷流程。並且深刻致歉,表示自己以後會努力改正。



5.最後我又重新問了一次最開始的疑問。這次deepseek給出的答案我就沒有發現什麽問題了。
需要這裏特別提一句:deepseek認為未來幾天可能補發通告,或者是因為接近尾聲所以之後會直接發布最終報告。我個人認為這兩種可能性是存在的,我也很希望deepseek的判斷會變成現實。


後續:但有趣的是,我今天另起一個新對話,再次複製粘貼問了最初的問題,而這次deepseek依舊犯了同樣的錯誤。也不知道現在大家問它的話,是會得到怎樣的答案。


開始就說了,今天的文章並不是關於我問deepseek的問題,我已經多等了兩天,而且會繼續等到有最終報告的那天。
但和deepseek的溝通中,讓我想起最近感受越發感受明顯的一件事:隨著這兩年AI的熱度,尤其是deepseek出現之後,我身邊越來越頻繁的出現一種場景 —— 當你問別人“你這麽認定的證據和理由時”,對方信誓旦旦地回答你說“deepseek這麽說的”。
隻是deepseek也好,還是國內外其他AI也好,雖然它們檢索匯總資料的能力很強,語言表達能力現在也不錯。但依舊會犯很多比較初級的錯誤。
就比如前麵我和deepseek溝通,deepseek因為搜到了2023和2024年的資料,就很隨意地推斷認定2025年也有。
更重要的是,AI,尤其是針對公眾免費使用的AI,無論是哪個國家哪個公司開發的,其實都隻能檢索到限定範圍內的部分資料,尤其是網絡傳播較多的信息。這就導致AI可能會被網上主要流傳的信息所引導。如果AI檢索範圍內的網絡信息,基本都是錯的,或者有偏差的,那AI的答案就很難科學和真實。
就像deepseek分析自己出錯的原因:規則理解出錯、信息偏差延遲、過度“自信”推斷,這些其實都是現階段AI容易犯的錯誤。
之前的文章中寫過,無論是下一代還是我們,未來的一個重要課題就是如何學習使用AI,不隻是說要搞明白如何使用,也包括如何去引導AI更為準確和有效地工作,以及如何判斷AI給出的答案是否有“坑”。