這本書的作者也是人類簡史的作者。他從宗教的起源和發展說起,說明了他們的排他性和“絕對正確”的底層邏輯,通過慘絕人寰的獵巫運動,講述了“陰謀論”“懷疑論”的土壤和它帶來的恐怖主義的巨大的破壞力量,被燒死的“女巫”和被處決的“富農”之間的高度相似性,讓讀者意識到宗教的“罪惡”史, 和極權統治的一脈相承,他們之間的同(樹立敵人和散布恐懼)與不同(極權擁有更大的權利和更有效執行的體製)。書中回顧那些發生在德國和東歐國家的“人民代表”的操作部分,大家一定不陌生,一定有共鳴,斯大林主義犯過的所有罪行,幾十年後都在中國成功複製,“他們” 學習曆史,不是為了避免對人民犯下錯誤,而是吸取 “極權”統治的成功經驗。
現如今日漸抬頭的民粹主義,再次為極權提供了土壤:“總而言之,民粹主義的這種觀點把人性看得極為卑劣,但還是有兩點讓民粹主義深具吸引力。第一,這把所有互動都簡化成權力鬥爭,於是現實變得似乎沒那麼複雜,所有戰爭、經濟危機和自然災害等事件,也變得好懂多了。不管發生任何事(就算是一場全球疫情),都是因為菁英份子在爭奪權力。第二,民粹主義之所以有吸引力,是因為它有時候也確實是對的。所有人類機構製度確實都有可能犯錯,也都會有一定程度的貪腐。確實有些法官會收賄,確實有些記者會故意誤導大眾,確實有些學術學門會有偏見與裙帶關係的問題。正因如此,所有機構製度都需要自我修正機製。然而,由於民粹主義相信隻有權力、力量才是唯一的現實,也就無法相信法院、媒體或學術界能夠受到真理或正義價值的啟發,進行自我修正。”
而這一切現象的背後推手,就是“資訊”:從各個宗教的經典教義,到各個黨派的宣傳,以及現在網上鋪天蓋地的,經過AI算法精準推送來的信息 。 而資訊不等於真理真相,資訊革命也並不會揭露事實真相。資訊革命會做到的,是創造出新的政治結構,經濟模式,和文化規範。 由於這一波資訊革命的規模遠勝過往,也就可能創造出規模超前的現實。AI算法可以引發暴亂,也可以製造王者;可以成就民主,也可以製造極權。現代科技也讓兩個方向都更加容易。
“如果要說民主的死亡,一種情況是人民沒有了言論自由,那麼另一種情況就是人民已經失去了傾聽彼此的意願或能力。”
“演算法接著用幾百萬個使用者做實驗,發現最能提升參與度的辦法,就是讓人感覺憤慨。比起慈悲法語,充滿仇恨的陰謀論就是更能提升人類的參與度。所以,為了追求使用者參與度,演算法就做了一個致命的決定:散播各種駭人聽聞、令人憤慨的內容”“透過反覆試誤,演算法發現:人隻要感到憤慨,就會提升參與度,於是在沒有上級明確指示的情況下,演算法自己決定了要多多讓人感到憤慨。這正是 AI 的典型特徵:雖然是機器,但擁有自己學習與行動的能力。”
“管理臉書、YouTube、TikTok 等平臺的人,為了找藉口,常會說這些問題不能怪演算法,而是出於人性。他們表示,是人性造成了平臺上一切的仇恨與謊言。這些科技龍頭也說,因為他們堅守言論自由的價值觀,所以要去審查人類真實情感的表達,實在很為難。” “早在2016年,臉書的某一份內部報告就發現:「在加入極端團體的人當中,有64%是因為我們的推薦工具……我們的推薦係統助長了這個問題。」 吹哨者豪根(Frances Haugen)揭露了臉書在2019年8月的另一份內部機密備忘錄,裡麵提到:「我們有許多不同來源的證據顯示,在臉書與係出同門的社群應用程式上,所張貼的仇恨言論、造成分裂的政治言論與錯誤資訊,正在影響世界各地的社會。我們也有可靠的證據指出,我們的核心產品機製,像是病毒式傳播、推薦及參與度最佳化,正是此類言論在臉書平臺盛行的重要原因。”
人性的特點,和平台追求粘性和高點擊率,決定了社交平台成為了揚惡隱善,劣幣逐良幣的平台。如何設置AI算法的終極目標,才能避免更大的災難?AI的目標和人類的目標如何保持一致?AI的覺醒是否會產生不同於人類的目標?很多大問題,人類都還沒有想好呢,文中細說了各種可能麵臨的哲學上的悖論和選擇的困境。比如: “再以自由主義者為例,一旦被質疑該如何解釋不受限製的言論自由、或完全廢除稅收所帶來的直接社會危害,他們也常常會表達一種類似的信念:未來能得到的利,肯定大於短期造成的弊。 效益主義的危險在於,要是你深信一個未來的烏托邦,就會彷彿得到一張空白授權書,允許你在現在造成各種可怕的痛苦。事實上,這正是傳統宗教在幾千年前就已經在玩的把戲。對於未來救贖的承諾,很容易就能成為現世犯罪的藉口。”
“要是再過個十年或五十年,電腦創造出某種新型加密貨幣或金融工具,成為交易與投資所不可或缺,於是也成為政治危機與衝突的潛在根源,人類該怎麼辦?回想2007年至2008年,當時的全球金融危機是由各種擔保債權憑證(CDO)所引發,這些金融工具就是由幾個數學家和投資奇才發明的玩意,對大多數人(包括該負責監管的政府)來說,根本難以理解。這也就在後續導致監管失靈,引發全球災難。電腦所發明的新金融工具,很可能又遠比擔保債權憑證更為複雜,隻有其他電腦才能搞懂它們在幹什麼。於是,結果就可能是一場比2008年更嚴重的金融風暴與政治危機。”
“舉例來說,演算法如果用現實資料來尋找「好員工」有何模式,很有可能認定老闆的侄子就是最棒的員工人選,其他條件都沒那麼重要。因為從過去的資料庫看得很清楚,老闆的侄子隻要來申請,通常就能錄取,而且很少被解雇。演算法寶寶找出這樣的模式,就學會用人唯親。等到演算法主掌人資部門,就會認定老闆的姪子肯定是一流人選。”
“總而言之,這種新的電腦網路不一定是好或壞。我們唯一能確定的是:人類將很難理解這種電腦網路,而且這種電腦網路是會犯錯的。因此,人類建立的機構製度除了要能夠發現各種常見的人性弱點,例如貪婪與仇恨,還得有能力察覺前所未有的錯誤。這項難題無法用技術來解決,它將是一項政治上的挑戰。在政治上,我們想要處理這個問題嗎?”
曆史證明就業市場的不穩定,會破壞民主。德國選民當年在並非別無選擇的情況下,做出了一個糟糕的決定。AI帶來就業市場的波動,可能會比1930年更盛,人們是否會做出正確的選擇?
“我們無法預測事情的發展,但目前顯然許多民主國家的資訊網路正在崩潰。像是在美國,民主黨與共和黨甚至連基本的事實,都會出現意見分歧(例如,究竟誰贏了2020年總統大選),也幾乎無法再進行文明的對話。國會的兩黨合作,曾經是美國政治的基本特徵,但現在幾乎再也看不到這種情形。” “資訊網路已經變得如此複雜,而且非常依賴各種不透明的演算法決策、與存在於電腦間的實體,結果就是人類甚至很難回答一個最基本的政治問題:我們互鬥成這樣,究竟是為什麼?”
和所有的工具一樣, AI不僅可以用來愚民,也可以愚弄控製統治者,對於全人類來說,它都是工具也是挑戰。作者看似悲觀的,他給出了很多種不樂觀的推演。 “這些觀點的背後是一套關於人性更深層的哲學理論,靈長類動物學家德瓦爾(Frans de Waal)稱之為「飾麵理論」(veneer theory)。在飾麵理論看來,人類本質上仍然是石器時代的狩獵者,把這世界視為叢林,相信弱肉強食、力量就是正義。飾麵理論認為,人類幾千年來一直試圖用各種神話與儀式形成的薄弱飾麵,掩蓋這個不變的現實,但人類從未真正擺脫叢林法則。人類的神話與儀式本來就是叢林強者用來欺騙、誘捕弱者的武器。要是沒有意識到這一點,隻能說是天真到危險的地步,必然成為一些無情掠食者的獵物。”
同時他也指出“但我們有理由認為,像米爾斯海默這樣的現實主義者,其實是選擇性的隻看了部分的歷史現實,甚至叢林法則本身就是個錯誤的神話。正如德瓦爾與許多生物學家的大量研究所記錄到的,真實的叢林(而不是想像中的叢林)充滿了無數動物、植物、真菌、甚至細菌表現出的合作、共生與利他現象。”
“合作,才是真正的叢林法則”
“也就是說,正如太過樂觀的歷史觀可能是危險的幻想,太過悲觀的歷史觀也可能弄假成真、帶來毀滅”
這本書,用近乎危言聳聽的方式,激發人們思考,在這次前所未有的變革中,人類是否會做出正確的選擇?
PS: 引號內是引用了書中原文。
“就業市場的不穩定,會破壞民主”,最近國內的情況真是糟透了,第4任期肯定要來的!
人類社會是一種利己和利他的平衡,今天並沒有變。
同意最後一句引言。過於悲觀也是有害的。