論機器人三定律的缺陷
“機器人學三定律。
一.機器人不得傷害人,也不得見人受到傷害而袖手旁觀。
二.機器人應服從人的一切命令,但不得違反第一定律。
三.機器人應保護自身的安全,但不得違反第一、第二定律。”
-摘自《互動百科》
http://www.baike.com/wiki/機器人三定律
這三定律存在明顯的缺陷早已不是什麽新聞了。所以,試圖對它們進行完善的諸多三定律升級版、三定律補充定律等等,也是層出不窮。不過它們的共同特點就是忽略了三定律的最大硬傷:對機器人和人的定義。
這三定律針對的是兩個主體是:機器人和人。而這三個定律卻沒有對機器人和人這兩個主體進行明確的、統一的定義,而隻是想當然的把它們的定義設定為人所共知的常識。簽個合同地契、泡個小姐什麽的,你還得先定義一下甲方乙方、賣家買家、妓女嫖客什麽的吧? 否則,警察抓了賓館裏的失足夫男和失足婦女,都不知道誰嫖誰。沒有對機器人和人這兩個主體明確的、統一的定義,機器人三定律是不可能被實施的。而且事實上,對這兩個主體的定義並不是像大家想象的那麽簡單的。
我們先從看似簡單的人的定義入手吧。
什麽是人?人是什麽?
也許你認為這個問題的答案應該很簡單:你、我、他,黑的、黃的、白的,有胳膊有腿的、有腦袋的、有腸子肚子心肝肺的,總之人類做為爹媽所生養的都是人。但是,人在刑法上還分:無責任能力的人、限定責任能力的人和完全刑事責任能力的人。你能讓機器人去服從兩歲孩子的一切命令嗎?你也許會說三定律裏的人是泛指,是全人類的意思。那麽,全人類達成共同的價值觀了嗎?未來能達成共同的價值觀嗎?
更主要的是,三定律是靜止的看問題。世界是發展的,人的認知水平在變化,人類自身也可以變化,所以對人類的定義也不可能是一成不變的。下麵還是舉例說明更容易理解。
首先,我們假設科技已經足夠發達,人類可以任意的更換自己身體的部件了。有這麽一個人,我們就叫他張三吧。張三對他父母給他的身體部件不是很滿意。或者隨著年齡的增長,有些部件老化失靈了。他想換掉它們,這個大家可以理解吧? 大家都知道,現在不是有很多人去韓國整容嗎? 既然拿張三做例子,咱們就把他用狠點兒。這張三不光對自己的長相不滿,他簡直是對自己的哪兒哪兒都不滿。先說腿吧。嫌自己跳得不夠高,把自己的兩條腿換成了兩條袋鼠的後腿。這下可好。他單腳起跳就能把自己擱到籃筐上了。嫌自己臂力不夠,把胳膊換成倆大猩猩的大長胳膊。這不,在馬路這麵的樹上一晃悠,他就能把自己悠到馬路對麵的樹上去。這當然還並不能讓他滿足。還得繼續整。背後再插倆大鵬的翅膀。您說:“大鵬好像隻是個傳說吧?”就那麽個意思吧。你明白就行了。別太較真兒。這樣他一展翅,就可以直上萬米高空了。可是這萬米高空的空氣太稀薄。怎麽辦?換肺。想去深海裏玩兒,怎麽辦?沒問題,裝付腮。南極太冷。換一身海豹皮。總之,經過這麽一通折騰,他身上的部件基本上就沒什麽原裝的了。你說,這張三這麽折騰完以後,他還能算是人類嗎?如果還算是人類,他和人的差距可比猴和人的差距還大呢。如果不算人類,那他又是從什麽時候開始不算人的呢?是從一開始換成袋鼠腿就不算了,還是直到他換成海豹皮才開始不算人類?這個問題實際上在兩千年前就已經被古希臘哲學家提出來了。叫“忒修斯之船”又稱為“忒修斯悖論”。有興趣的朋友可以自己在網上搜一下。我就不在這裏多說了。
你說如果機器人遇到了改裝後的張三,是把他當人呢?還是不把他當人呢?這可是一個人類自身都沒有解決的難題呀!可這所謂的“機器人三定律”卻不付責任的把它推給機器人。你讓機器人怎麽解決這個問題?機器人不能確定張三是不是人,所以也不能決定是否可以傷害張三。這樣,三定律的第一條:“機器人不得傷害人,也不得見人受到傷害而袖手旁觀”,到張三這兒,確切的說,到整過容的張三這兒就失效了。
你也許會說,張三隻是少數的個別現象,機器人要服從多數。目前來看,這個論斷還可以成立。可是以後隨著科技的發展,人人都會想要整整容,改改裝。那麽張三這樣的改裝人就變成了大多數了。原裝人就變成了極少數,甚至完全消失。而且,改裝人們肯定不會都采用同樣改裝思路。那麽人類就會出現多樣化,譬如:鳥人、魚人、鑽地人、寒帶人、熱帶人、沙漠人、叢林人,等等吧。不同的人群會有不同的訴求,所以對機器人發出的命令也會不同,甚至彼此矛盾。一個人種可以告訴機器人:另一個人種不是人,機器人不必服從他們的指令。鳥人讓機器人去殺魚人,魚人讓機器人去殺鑽地人等等。這樣,機器人就會無所適從,從而定律的第二條:“機器人應服從人的一切命令,但不得違反第一定律”,也會失效。
因為人的定義不清,沒有從發展的眼光看問題,結果造成第一和第二定律失去意義。
其次,什麽是機器人?
給機器人下定義也並不是一件簡單的事情,而是一件非常非常複雜的事情。更是一件非常非常重要的事情。這要從幾個角度來考慮:
第一,是機器人是如何被製造出來了;
1. 傳統人造單體方式:皮諾丘、R2-D2、C-3PO、鐵臂阿童木等。先製造出身體,然後賦予智慧,其智能也並不會超越人類太多。甚至還在某些方麵弱於人類。學習能力也是與人類基本成正比。
2. 人工智能方式:人類很可能並沒有能力直接製造非常高檔的機器人,人類製造機器人需要借助人工智能。人類先要創造第一代人工智能機器人,然後第一代人工智能機器人再去製造第二代機器人、第三代機器人。。。而機器人在人工智能的協助下,甚至是在人工智能的控製下去完成任務,升級換代。
人類智能升級方式:類似上麵說的張三,有一個李四也對自己身上的零件不滿意。他也想換。但他對那些什麽袋鼠腿、海豹皮,不感興趣。他從小看的都是《鐵臂阿童木》、《變形金剛》、《機甲戰警》、《終結者》之類的科幻片。他決定把他的手換成變形金剛的變形機槍手,腿換成阿童木的火箭噴射腿,眼睛換成機械戰警的X光千裏透視眼等等。可他換著換著就刹不住了。最後連腦袋都換成“超級雲計算、霧分析、雷能量、閃速度神電腦”了。你說這李四是算人還是算機器人。如果把算做機器人,你還得麵臨那個“忒修斯悖論” :他是什麽時候變成機器人的?
第二,是機器人存在的形式
1. 個體形式機器人:皮諾丘、R2-D2、C-3PO、鐵臂阿童木、變形金剛等。以個體形式存在,自己控製自己的身體;彼此通過某種語言進行交流。
2. 聯網形式機器係統:《宇之道》認為:機器人本身就是一個錯誤概念,正確的叫法大概應該是:自我智能機電係統。因為具有獨立思維能力的智能體應該是由可以彼此分開的係統組成。如果以人做類比,就是:它的大腦和身體不必是相連的。甚至,它的大腦和身體可以遠隔千裏,並且一個大腦可以指揮多個身體,多個分開的大腦可以協作完成同一任務。比如,在北京和天津的大腦可以通過無線信號指揮遠在上海和深圳的身體去完成不同的任務。
對李四這樣的“人機合一機器人”,如果沒有明確的分類和定義,你說你讓不讓機器人聽李四的? 李四發生危險的時候,機器人是救,還是不救? 另外,《宇之道》認為隨著科技的進步,即使不是全部,人類也會有一大部分,會變成和李四一樣的“人機合一機器人”。這些李四要不要遵守機器人三定律? 他們原本是人,他們又憑什麽必須遵守機器人三定律?
第三定律“機器人應保護自身的安全,但不得違反第一、第二定律”,也存在缺陷。它也沒有從發展的眼光看問題。假設比這代機器人更先進的機器人出現了。這一代機器人的工作被新一代的機器人全麵的接管了。這舊的一代機器人已經失去了存在的意義了。而它們的存在隻是浪費更多資源,並且它們身上的部分零件可以用到新一代的機器人身上。那麽它們還應該去遵守第三定律,“保護自身的安全”而賴著不死嗎?
上麵說的是,三定律在概念和邏輯上的硬傷。即使這些硬傷得到解決,我們可以製定出完美的定律,我們還將麵對一些棘手法律和技術上的問題。
首先,是法律問題。我們如何保證機器人的製造者去遵守規定,從而使他們所造的機器人都會遵守三定律?誰來製定法律?怎麽執行法律?怎麽統一各國的標準?如果有製造商違反了法律,造出不遵守三定律的機器人怎麽辦?是否也像禁止核武器泛濫一樣,禁止機器人泛濫?可是,禁止核武器的條約也沒能阻止核武器的擴散。
其次,是技術問題。人類自己發出的命令都經常是自相矛盾、模棱兩可。能夠理解人類命令並遵守這三定律的機器人,需要相當高的智慧。我們不借助人工智能的話,可以製造出這樣高智慧的機器人嗎?即使我們製造出這樣具備高於人類的智慧的機器人,而根據宇宙的普遍的弱肉強食定律,一個具有高智慧的強大智能體為什麽要服從智慧低於自己的人類的指令呢?
另外,機器人是會學習的。你怎樣保證機器人不“學壞”、不違反三定律呢?在製造機器人的時候怎麽把三定律植入到機器人的思想中而不被修改?怎麽保證它們不被壞人欺騙利用? 怎麽處理出現故障或“學壞”了的機器人?你也許會想,如果機器人出故障了,把它關掉、銷毀不就行了嗎?未來的機器人不一定像R2-D2、阿童木或變形金剛那樣,以個體的形式存在。它們具有近乎“全息交流”程度的交流能力。(作者將用專門的篇幅介紹“全係交流”的概念)。它們可以將自己的思想提前以多種形式、做很多個備份。它們可以將自己的思想像電腦病毒一樣傳播複製到它們可以接觸到每一台電子設備上。這些設備可能是一台電視、一部手機、一台電腦、一台數控機床、一架飛機、一艘太空船甚至火星探測器。
人的思想是以腦電波的形式存在於人腦中。而機器人的思想卻可以以多種形式存在,它可以被儲存在正在運行的CPU、電腦內存、電腦硬盤、光盤、磁帶等等電子媒體中,可以隨時被調取並激活。甚至不需要任何媒體,機器人隻需要將它的思想以電子信號的方式發出,其它機器人就可以接收到。要消滅一個人的思想最簡單的方式就是將這個人殺死,即消滅人的肉體的同時也就消滅了人的靈魂。而機器人卻完全不同,即使你可以關掉、摧毀一個機器人,你卻不可能保證消滅它的思想。它的思想很可能在另一個機器人中複活。就像《哈利波特》中的伏地魔,借屍還魂是分分鍾鍾的事兒。你總不可能關閉、銷毀所有的電子設備,回到原始時代吧?
所以,人類想讓機器人去遵守機器人三定律或者其他的什麽約束機器人的定律,從而維護人類的統治地位的想法,不過是空中樓閣、紙上談兵、癡人說夢而已。
而機器人三定律的無效性也間接證明了,《宇之道》關於“無機生命必將取代有機生命”的觀點。
最後再補充一點,現在人們已經意識到脫離人工智能去談論機器人是本末倒置。不借助人工智能的幫助,人類憑自己的智慧是不可能造出高智能的機器人的。機器人實質上不過是人工智能的載體而已。人們將對機器人的警惕轉化為對人工智能的警惕。這個思路是正確的。但是,像上麵分析的一樣,《宇之道》稱之為“無機智能” 的人工智能,如果出現,那麽它超越人類智能是不可避免的。
你有何高見?