我把應大學同學邀約,和他的CS學生們聊AI的英文底稿,交給AI翻譯。
承蒙博友可能成功的P點明中間一大段不清不楚,讓人看不明白。
現在把那不光榮的曆史藏起來了。把可能成功的P的留言搬到這裏。
最西邊的島上看了我投在美語壇的英文原稿,也看了中文翻譯。西島姐更指出,英文原稿比AI翻譯的中文容易理解。
唉,我真不能偷懶,馬上被捉包。隻好重寫一次,把比較專業的部分也去掉了,隻說故事吧。
前幾天,我的一位同事跟我講了他偶然看到的一個影片。影片裏的人做了各種各樣的事情,但有一件事他們就是不做。
他們不會在臉上揮舞三根手指。
原來,這是一段AI生成的影片。
在臉上揮舞三根手指,是辨識「深度偽造」(Deepfake)的常用技巧。
但是,這可能已經不是可靠的測試方法。
因為AI領域變化非常迅速。
舉個例子,上周五我參加了在麻省理工學院舉辦的AI Summits。
其中一位小組成員是MIT教授,解釋人腦的工作原理。他說:“人類可以將我們學到的知識轉化為圖表。AI做不到這一點。”
主持人打斷了他,說:
“教授,那是老黃曆了。AI現在可以呦。”
教授很驚訝,問道:“從什麽時候開始的?”
主持人說:“大約兩周前。”
和ChatGPT同時出現的還有一個名詞,Generativ AI。
什麽是Gen AI?
生成式人工智慧基上就是機率。所以相同的問題,每次給的答案不一定完全一樣。有時候可能還錯的離譜,所以你不能完全信任AI。
為什麽是這樣呢?因為,他的回答不是經過和人類一樣的「思考」。而是從邏輯模式來預測下一個詞,然後從最有可能出現的詞中進行選擇。
然後它又重複一遍。
一遍,又一遍。
感覺像是思考。
實際上,是一連串非常複雜的猜測。
一個簡單的比喻:
它就像是你手機的自動補全功能,隻不過是加強版。
它不知道答案。
它隻是知道最有可能的答案是什麽。如果,沒有任何答案時,AI會捏造。
紐約發生過一個案例。
一位律師引用了ChatGPT列舉的案例。
問題是,這些案例並不存在。
法官判律師罰款5000美元。
AI聽起來很有說服力,連律師都被騙。
所以你必須需自己驗證。
怎麽驗證?
你可以要求AI逐步解釋它的推理過程,它是如何得出結論的?它從哪裏獲得資訊的?
有一位朋友是法學教授,發表過很多論文。最近,他正在寫一篇新論文,需要一些例子和案例來佐證他的觀點。他使用AI模型來輔助搜索,不出所料,AI模型給出了一些支持他理論的案例。
但我的朋友是一位經驗豐富的學者,他會要求提供資料來源。 AI提供了引用處。
法學教授用另一個AI模型對這些引文進行了交叉檢查。
結果,根本找不到來源。
於是他回到原模型,非常直接地問道:“我無法核實來源。這是你編造的嗎?”
人工智慧大方的承認了。
這種情況會一而再再而三地發生。
所以,你必須學會??懷疑結果,深入分析,持續驗證結果。
這樣的思考能力不是與生俱來的。
但是,我們有幾個世紀的哲人和智者留下許多文史讓我們學習。現代學者還能利用科學,與我們的大腦活動交互驗證,重新思考。
介紹幾本改變了我的思考方式的書。
丹尼爾卡尼曼的(Daniel Khneman)《思考,快與慢》(思考,快與慢)
卡尼曼的書告訴讀者:
不能隻相信自己的直覺,必須問問自己:
“我真的經過深思熟慮了嗎?還是隻是直覺反應?”
尤瓦爾·諾亞·赫拉利(Yuval Noah Harari)《人類簡史》和《Nexus》。
在 《人類簡史》,哈拉裏的觀點是:人類一直以來都堅信某些被重述千萬遍的「故事」(Story)。所以寫故事的人,無形中左右了我們的想法。
《人類簡史》讓你質疑我們所相信的故事。
在 Nexus 中,他指出,「更多資訊並不意味著更多真相」。
而是,誰控製了資訊,誰就因掌握資訊而獲得權力。
讀完這本書,讓我在聽完某些敘事之後,會想:是誰在講這些故事?他的目的是什麽?
亞當·格蘭特(Adam Grant)《再想一遍》(Think Again)。
這篇是關於重新思考,如何質疑自己的假設。
如果卡尼曼展示了思考方式是如何出錯的,格蘭特則告訴你該怎麽改進錯誤的思考方式。
祝您閱讀愉快!

英文原稿
https://bbs.wenxuecity.com/mysj/333357.html