碼農學寫字

碼農學寫字 名博

不能偷懶,重寫一次

碼農學寫字 (2026-04-19 18:20:00) 評論 (3)
上一篇博文是偷懶的結果。

我把應大學同學邀約,和他的CS學生們聊AI的英文底稿,交給AI翻譯。

承蒙博友可能成功的P點明中間一大段不清不楚,讓人看不明白。

現在把那不光榮的曆史藏起來了。把可能成功的P的留言搬到這裏。

最西邊的島上看了我投在美語壇的英文原稿,也看了中文翻譯。西島姐更指出,英文原稿比AI翻譯的中文容易理解。

唉,我真不能偷懶,馬上被捉包。隻好重寫一次,把比較專業的部分也去掉了,隻說故事吧。


前幾天,我的一位同事跟我講了他偶然看到的一個影片。影片裏的人做了各種各樣的事情,但有一件事他們就是不做。

他們不會在臉上揮舞三根手指。

原來,這是一段AI生成的影片。

在臉上揮舞三根手指,是辨識「深度偽造」(Deepfake)的常用技巧。

但是,這可能已經不是可靠的測試方法。

因為AI領域變化非常迅速。

舉個例子,上周五我參加了在麻省理工學院舉辦的AI Summits。

其中一位小組成員是MIT教授,解釋人腦的工作原理。他說:“人類可以將我們學到的知識轉化為圖表。AI做不到這一點。”

主持人打斷了他,說:

“教授,那是老黃曆了。AI現在可以呦。”

教授很驚訝,問道:“從什麽時候開始的?”

主持人說:“大約兩周前。”


和ChatGPT同時出現的還有一個名詞,Generativ AI。

什麽是Gen AI?

生成式人工智慧基上就是機率。所以相同的問題,每次給的答案不一定完全一樣。有時候可能還錯的離譜,所以你不能完全信任AI。

為什麽是這樣呢?因為,他的回答不是經過和人類一樣的「思考」。而是從邏輯模式來預測下一個詞,然後從最有可能出現的詞中進行選擇。

然後它又重複一遍。

一遍,又一遍。

感覺像是思考。

實際上,是一連串非常複雜的猜測。

一個簡單的比喻:

它就像是你手機的自動補全功能,隻不過是加強版。

它不知道答案。

它隻是知道最有可能的答案是什麽。如果,沒有任何答案時,AI會捏造。

紐約發生過一個案例。

一位律師引用了ChatGPT列舉的案例。

問題是,這些案例並不存在。

法官判律師罰款5000美元。

AI聽起來很有說服力,連律師都被騙。

所以你必須需自己驗證。

怎麽驗證?

你可以要求AI逐步解釋它的推理過程,它是如何得出結論的?它從哪裏獲得資訊的?

有一位朋友是法學教授,發表過很多論文。最近,他正在寫一篇新論文,需要一些例子和案例來佐證他的觀點。他使用AI模型來輔助搜索,不出所料,AI模型給出了一些支持他理論的案例。

但我的朋友是一位經驗豐富的學者,他會要求提供資料來源。 AI提供了引用處。

法學教授用另一個AI模型對這些引文進行了交叉檢查。

結果,根本找不到來源。

於是他回到原模型,非常直接地問道:“我無法核實來源。這是你編造的嗎?”

人工智慧大方的承認了。

這種情況會一而再再而三地發生。

所以,你必須學會??懷疑結果,深入分析,持續驗證結果。

這樣的思考能力不是與生俱來的。

但是,我們有幾個世紀的哲人和智者留下許多文史讓我們學習。現代學者還能利用科學,與我們的大腦活動交互驗證,重新思考。

介紹幾本改變了我的思考方式的書。

丹尼爾卡尼曼的(Daniel Khneman)《思考,快與慢》(思考,快與慢)

卡尼曼的書告訴讀者:

不能隻相信自己的直覺,必須問問自己:

“我真的經過深思熟慮了嗎?還是隻是直覺反應?”

尤瓦爾·諾亞·赫拉利(Yuval Noah Harari)《人類簡史》和《Nexus》。

在 《人類簡史》哈拉裏的觀點是:人類一直以來都堅信某些被重述千萬遍的「故事」(Story)。所以故事的人,無形中左右了我們的想法。

《人類簡史》讓你質疑我們所相信的故事。

在 Nexus 中,他指出,「更多資訊並不意味著更多真相」。

而是,誰控製了資訊,誰就因掌握資訊而獲得權力。

讀完這本書,讓我在聽完某些敘事之後,會想:是誰在講這些故事?他的目的是什麽? 

亞當·格蘭特(Adam Grant)《再想一遍》(Think Again)。

這篇是關於重新思考,如何質疑自己的假設。

如果卡尼曼展示了思考方式是如何出錯的,格蘭特則告訴你該怎麽改進錯誤的思考方式。

祝您閱讀愉快!



英文原稿

https://bbs.wenxuecity.com/mysj/333357.html