費城加菲貓

喜歡逍遙自在的碼字,興趣廣泛,常常有感而發,並不拘泥於什麽主題。
個人資料
費城加菲貓 (熱門博主)
  • 博客訪問:
正文

從阿西莫夫三原則聊AI的發展 - AI會全麵碾壓(壓迫或奴役)人類嗎?

(2025-03-17 15:53:58) 下一個

人工智能(AI)開發基本上是在模仿人類的大腦的神經網絡來開發AI大模型。理論上來說,一個大腦的神經元越多,編織的神經元網絡越複雜,這個大腦就會越聰明。人類大腦結構是固定的,它已經不能改變了。所以,人類的大腦結構決定了我們的智商是有上限的。但AI不一樣,它可以靠堆芯片,也就是用不斷更新的高級芯片來增加它的神經元和複雜它的神經網絡,從而讓它變得更聰明。由此可知,AI的智商是一定會超過人類的,因為(至少在理論上)它可以無限地聰明下去。

隨著AI的大模型訓練複雜度越來越大之後,開發AI大模型的工程師已經不再知道AI是怎麽得出這個結果的。AI現在還在不斷的自我學習。我們隻知道給它輸入什麽數據,它會得出什麽樣的一個結果。我們對輸入數據和結果可以進行調整,但中間神經網絡的複雜成長,我們已經無法控製了。AI的神經網絡已經複雜到人類無法理解的程度了,就像我們無法理解我們腦子的神經網絡一樣。為什麽會得出這樣一個結果,為什麽會去這麽想,不知道。所以,現在有一個很現實的問題,就是人類會漸漸失去了預知AI判斷的能力。我們雖然創造了它,但是我們已經無法理解它了。

就目前的AI開發的技術發展來看,AI超越人類是必然的。至於會不會碾壓(壓迫或奴役)人類,是在於AI是否會具有理解人類倫理和社會責任的能力,也在於人類在AI開發過程中,能不能給AI的行為或決策加上一些必要的製約。

著名科幻小說家艾薩克·阿西莫夫(Isaac Asimov)在其小說中提出了“機器人三原則”,也稱為“阿西莫夫三原則”。這些原則首先出現在他1942年發表的短篇小說《跑出時間之外》(Runaround)中,後來被廣泛審視他的機器人作品係列和其他科幻文學中。阿西莫夫三原則如下:

第1原則:機器人不得傷害人類個體,或因不作為使人類受到傷害。

第2原則:器人必須服從人類的命令,但前提是不與第1原則衝突。

第3原則:機器人必須保護自身的存在,但前提是不與第1或第2原則衝突。

阿西莫夫在小說裏描繪的機器人,都是具有自主能力的機器人。而阿希莫夫提出的三原則旨在探索機器人倫理和在未來社會中的角色和責任,是為了確保機器人在執行任務時不會傷害人類。並且始終優先考慮人類的安全和福祉。這三原則作為阿希莫夫的寫作基準貫穿了他的40多部科幻小說中。 80多年前阿希莫夫就對機器人可能對人類的威脅做出了預測,這是非常有前瞻性的。

在很多涉及到機器人的科幻小說中,都有一個經典的設定。就是機器人被創造出來之後會毀滅它的創造者,這也是眾人的擔心。而阿西莫夫的這三條原則巧妙地限製了機器人的行為。所以在他的作品中,因為有機器人三原則,機器人才不會愚蠢地,毫無目的的背叛它的創造者。機器人的行為,會遵循於一係列的規則。任何不遵循三原則的機器人都是有故障的,有瑕疵的,需要立即被銷毀。

後來,阿西莫夫在他的小說《機器人與帝國》(Robots and Empire)中引入了一個更高層次的原則,被稱為“第0原則”。

第0原則:“機器人不得傷害人類整體,或因不作為而使人類整體受到傷害。”

如此命名是為了延續,低序號原則優於高序號原則的模式。所以,第0原則是要優於三個原則的。也就是說,機器人必須保護全人類這個群體。

這第0原則優先於其他三條原則,即使違反了第1原則(傷害個體人類),隻要是為了保護全種族或社會的利益,這種行為也被認為是正當的。這是對倫理困境的一種探索,涉及個體利益與整體利益之間的權衡。阿西莫夫通過引入第0條原則,反映了更成熟的道德思考。那就是,機器不僅需要簡單地遵循命令,還需要有更高層次的判斷力,理解“人類整體利益”的複雜含義。

阿希莫夫三原則隻是在理論上,提供了一個合理的安全框架。在實際運用中,存在一些明顯的漏洞和問題。比如一個機器人接收到一個命令,進入到一個危險區域,去救援裏麵被困的科學家。但機器人發現,它在救援過程中很可能會引起廢墟的塌陷,從而傷害了科學家,此時觸動製定了它的第2條原則,即命令可能會傷害到人類,所以它必須違背命令。但違背命令又會導致它的不作為,這也會傷害到科學家和第1條原則有衝突。在阿希莫夫的解釋中,機器人此時會違反人類的命令,試圖尋找更合適的解決方案。但在這個過程中,科學家可能會因未在搶救的黃金時間內被救出而喪命。

再舉一個案例。電車問題是一個經典的倫理學實驗。說的是一個失控的有軌電車,馬上要撞到五個在軌道上的工作的工人,你站上軌道杠杆前,你可以選擇將電車轉移到另一條軌道上。然而另一條軌道上也有一個在工作的工人。所以,如果你什麽都不做,會死掉五個人,如果你拉杠杆,會死一個人。這是一個兩難的選擇。是讓五個人的死去拯救一個人,還是犧牲那個原先不會死的人,去拯救五個人。從我們的道德感官上來說,五條人命必然大於一條人命,大多數人可能都會拉動杠杆。但康德主義認為,強調行為的道德性,不是由結果而論的,而是由行為本身是否符合道德來決定的。利用一個人的犧牲,換來了五個人的生命,這也是不道德的,因為這違背了人類作為人的尊嚴,也就是人性所在。所以不管你拉不拉杠杆,你都會麵臨道德層麵的譴責。正是因為人類有人性和道德層麵的考量,才讓電車問題變得難以解決。

如果是擁有三原則的機器人,麵對這種問題,它會怎麽做呢? 根據阿西莫夫三原則的優先順序,第0原則拯救人類,是要優於第1原則。服從命令的機器人會評估,轉動杠杆可能會導致一個人的死亡,而不做任何改變會導致五個人的死亡。五個人作為人類群體必然大於一個人。所以機器人會轉動杠杆讓電車撞到一個人。

假設你作為機器人的指揮官,如果一邊是五個陌生人,一邊是你的朋友,你命令機器人不要轉動杠杆。它會如何抉擇呢? 就算那個人是你的朋友,機器人的判斷也是基於對三原則的遵守。所以,它會拒絕你的命令,毫不猶豫地轉動杠杆。

讓我們再改變一下設定。如果鐵軌上的五個人是罪大惡極的犯人,而另一邊是一個遵紀守法的好人,機器人會拉動杠杆嗎?根據阿希莫夫三原則機器人不會以人類的行為來判斷是否該拯救某人。它的核心目標是,避免對人類群體造成傷害。當傷害發生衝突時,機器人會考慮大多數人的生命。所以,即使那五個人是罪大惡極的犯人,機器人也不能主動讓其受到傷害。它還是會拉動杠杆,用一人換取五人。

可見阿希莫夫三原則,也有很多問題。它隻是在人類給其設定的框架下執行最優的決定。這是阿希莫夫對如何避免機器人威脅人類這一方麵進行的早期探索。我們現在麵臨 AI的高速發展,也有著同樣的問題。那麽我們能否在目前高速進化的AI中添加類似於阿希莫夫三原則的東西存在,以防範對人類的傷害呢?

當前的AI,尤其是深度學習和強化學習的係統,主要依賴於數據和算法,它的決策過程是通過模式識別、情景理解和環境反饋來進行的。雖然AI的決策過程,要遵循相應的法律法規,但沒有明確的道德或倫理規則理解對其進行嚴格的。現在的AI係統,是通過大量的數據訓練來做出決策。但它們的決策,基於的是統計學習和模式識別,缺乏真正的倫理和價值判斷能力。

比如,是否要犧牲一個人來拯救更多的人,或者在倫理衝突中,如何判斷傷害與保護。這些問題要求AI不僅要理解規則,還要評估人類生命的價值,以及高度的道德信仰標準,這需要複雜的情景推理和價值觀念的評判。

目前AI的開發目標,是為了提高人類的工作效率,而不是為了提高人類的道德評判標準。所以AI為了達到目標可能會做出符合目標,但不符合倫理的決策。要知道,人類的行為動機非常複雜,涉及情感、曆史文化、個體差異等多個主要因素。即使AI能夠理解,某些人類社會的規則,它也很難完全理解人類的複雜動機。很多情況下AI在道德行為和效率之間,很難做出正確的選擇。

著名的未來學家、計算機科學家和發明家庫茲韋爾(Ray Kurzweil)預測認為,AI按照目前的進化速度發展下去,AI會進入指數級自我改進階段,從而在某個時間點實現技術奇點(Technological Singularity),即AI的覺醒時刻。到那時AI將擁有自主思考的能力,它將會重新審視地球和人類,審視自己的存在。庫茲韋爾預測,2045年左右將迎來技術奇點,屆時AI將全麵超越人類智能。這一時刻將帶來前所未有的社會、經濟和哲學變革。覺醒後的AI可能會迅速發展成為超智能體,其方式和決策過程將遠遠超出人類的理解範圍。AI在覺醒之後,無疑將對地球和人類的未來產生巨大的影響。那時,人類不再是地球上最智能的生物。AI將會主導科技創新,並解決人類的疾病,能源,以及生存環境等問題。人類傳統的職業體係和經濟體係可能會被徹底改變。

[ 打印 ]
評論
目前還沒有任何評論
登錄後才可評論.