個人資料
慕容青草 (熱門博主)
  • 博客訪問:
歸檔
正文

沒有道德與信仰的邏輯--人工智能的又一天然缺陷

(2017-06-21 18:37:09) 下一個
近來傳出穀歌與臉書在用深層思維(Deep Mind)或機器學習(Machine Learning)和機器思辨(Machine Reasoning)進行的實驗中均出現一些人工智能表現出超出設計者意料的罔顧人類道德規範的狀況。當然,那都是些非常原始的需要加以特別詮釋才能與道德聯係在一起的案例。但是,這些簡單的案例卻給了我們人類一個提醒:人工智能在邏輯的學習和思維的很多方麵可能會遠超過人類,但是它們卻無法具備人類所持有的複雜的道德理念體係。這是人類在一味地發掘人工智能潛力時必須及早意識到的。對於人工智能來說,它們能夠具備的滿足人類需要的最高道德標準就是服從它們的主人,以及不利於它們主人的敵人。而這樣的道德水平永遠隻能作為一種簡單工具的行為準則,而無法滿足人類社會的一般行為的道德規範。
 
比如,假設有一個具有高超的思辨能力的機器人外表與人一樣。它的程序中告知它要忠於它的主人及主人的家人,然後把它放到社會上去為主人辦事,而且把所在地區的所有法規都輸入到它的係統中,使得它比專業律師還要精通法律,以免它做出違法的事給它的主人帶來麻煩。那麽我們對這個機器人的社會行為能有什麽預期呢?我們對它的一個非常現實的預期將是它是一個在法律允許的範圍內最會坑蒙拐騙打擦邊球的道德淪喪的小人。除非他的主人給他製定一個永遠要吃虧的標準,它在按照功利邏輯與法規去獲得最佳行為效果的過程中,一定是超乎常人地詭詐和機敏而且不會上人類的當,更不會因為被人類激惹而鬧情緒,因為它本來就沒有情緒。
 
那麽它的主人能否給通過給他輸入一個“吃虧是福”的程序而讓它不那麽缺德呢?如果存在這種選項,那麽社會就可以通過立法要求每個機器人的主人都一定要給他的機器人輸入這樣的程序。但那是不現實的,因為那樣將讓機器人無可適從,出現行為混亂。道理很簡單,再聰明的機器人做判斷也要依據它所掌握的數據,但在現實的社會中,沒有一個人能夠完全了解周圍的每個人每件事的所有的曆史狀況,即便是與再大的數據庫連在一起也不可能做到。在這種情況下,人類會因為恐懼,信仰,同情,愛心,友情等等情懷而在非常有限的資訊條件下來規範自己的行為。但是,由於機器人的思維是以數據為依據的邏輯運算,它不會有恐懼,沒有也不需要信仰,不存在對人的同情與愛心,也不會了解什麽是友情。所以它將完全按照功利的邏輯去思考,唯一顧忌的是明文的法規。雖然它無法掌握與周圍人與物有關的所有數據,但它仍必須根據它所了解的數據做出判斷及行動決策,這樣思考的結果一定使它成為站在法律邊緣的惟利是圖坑蒙拐騙的道德淪喪的小人。
 
人類是否可以象有些有些電郵裏表現的那樣讓機器人學會相互合作然後爭取共贏呢?現實中的機器人也可以學會相互合作爭取共贏,但前提條件一定是在特別預設的可以讓它了解所有的參數的前提之下的,而不是在開放的不可能完全預知所涉及的對象的所有狀況條件的情況之下的。這首先是因為人類自己不可能找出一個人類的一般社會行為模式,因此也無法將這樣的行為模式事先告訴機器人。在馬路上隨時可能會騙子,甚至恐怖主義者,因此機器人的設計者就不可能在無法判斷誰是懷有惡意的前提下讓機器人相信所有的人。
 
兩千多年前希臘先哲柏拉圖在他的《理想國》一書中記載了他的老師蘇格拉底與色拉敘馬霍斯之間關於什麽是正義的辯論(見本博客“一次關於正義與非正義的世紀辯論”一文)。在那場辯論中,從現實的社會邏輯來看,蘇格拉底根本就不是色拉敘馬霍斯的對手,而蘇格拉底是在把那場辯論拉到了超自然的靈命的層次上之後才最終擊敗了色拉敘馬霍斯。這本身表明如果完全按照人類現實社會的功利邏輯而不考慮超出功利的信仰及愛心等非功利的因素,那麽人類自身的邏輯一定會導致不道德的結果。
 
那麽,人類是否可以將信仰,道德,同情,愛心,友情,甚至恐懼來數據化輸入給機器人呢?可以,但是不會有任何實際意義,這是因為人類自己還沒有將這些因素搞明白,而這些因素又不像圍棋的邏輯那樣可以通過深度思考(Deep Mind)來推導出來。實際上,信仰,道德,同情,愛心,友情等情懷與我們平時所說的邏輯思維是不屬於同一邏輯層次的。這不是說信仰,道德,同情,愛心,友情等都不符合邏輯。人隻要有思維就無法擺脫邏輯。但是上述這些情懷本身卻又高出基本的邏輯層次,為人類的思維邏輯增添了附加的成分。因此,它們不是可以由形式邏輯推導出來的。
 
我曾在其它文章中提到過,哲學僅屬於人類不屬於機器人,那是因為哲學建立在概念基礎之上,而機器人的思考依據的是數據,它既不理解概念也不需要概念。而由於信仰,道德,同情,愛心,友情,乃至恐懼在現實生活中的具體環境中可以表現出非常具體的形式,因而可以用非概念性的數據來進行模擬,但是一方麵由於它們不在基本邏輯的層次上因而這樣的模擬本身無法超越人類對之非常有限的理解,另一方麵機器人的邏輯本身就與人類的邏輯千差萬別,因此最多能讓他們按照人類自己的理解去非常有限地理解人類在相應的情懷下的感覺的某些特征,而不可能讓它們自己具有這樣的情懷(因此就不可能有同情之說)。
 
不過,如我在之前的一篇文章中提到的,臉書在不久前宣布已在用意念打字方麵取得技術性進展。這意味著從原理上來說人類將有能力透過科技來窺視他人的語言性思維,這樣的技術將使得機器人在與人打交道時有可能通過窺視人類的語言性思維來了解對方是否有敵意。但是,這樣的技術本身顯然不是為了與人為善。因此,不可能通過這樣的技術來讓機器人達到人的高水平的道德標準。

所以,同哲學一樣,信仰,道德,同情,愛心,友情將是人工智能的又一個不可能占據的境界,它們隻屬於人類而不屬於人工智能;而人工智能可以滿足的對於人類的最高道德就是聽命於主人,不利於主人的對頭。而對於誰是主人的對頭的判斷將是相當的不穩定的,因而存在著傷害主人的朋友的可能性。而人工智能如果被應用在開放性的一般社會中的話,那麽相應的機器人一定最善於打法律擦邊球的坑蒙拐騙惟利是圖的缺德小人。。。

而人工智能所存在的上述極限從另一方麵反射出人類文明自身所麵臨的一個危機:文明的非人性化或文明的人工邏輯化。自人類文明產生於地球起,雖然人類一直努力按照自己的邏輯來改變自然和社會。我們知道自然與社會的活動一般地來說都是難以把握的非線性的過程。但是,由於人類不但具有對於包括動物在內的非智能的生命與非生命對象的掌控能力而且自身也不屬於那些對象之列,因此人們可以通過將開放的非線性體係中的自然對象納入到人為設計的局限性的,具有強線性特征的體係之中從而便於掌控。一個最簡單的例子就是垃圾的收集,人們可以通過設立垃圾箱及定期的垃圾回收使得原可能散步於各處而汙染地球表麵的垃圾集中處理以保持地球表麵之潔淨。但是,當人們處理社會問題時,由於打交道的對象和自己一樣是有智能的人,因此,不論從倫理上還是邏輯上都難以象處理自然對象那樣通過簡單的封閉性的線性化來控製開放的非線性的過程。因此,社會的文化其實基本上一直是在各種正麵及負麵的人性的影響之下自行發展,正如老子所說“建德若偷”。
 
但是,隨著人類科技的不斷發展,大數據和信息技術給予了人類可以更有效地按照類似處理非智能的自然界的方式來處理社會問題。這樣的一個發展使得人類文明的發展越來越反映出人的意誌而不是自古以來的超越人類理性的人性及信仰的特征。這樣的結果使得人類在機器人領域所發展的人工智能與在社會領域進行的社會管控這兩者之間逐漸匯聚。也就是機器接近人的思維,而社會的邏輯接近機器的邏輯。這背後起決定性作用的都是人的意誌。
 
但是,問題在於,正如我們早已知道而現在通過人工智能更加明確了的,人類自身的意誌在邏輯上是有矛盾的,不自洽的。因而,當社會越來越偏離了自古以來的信仰,道德,愛心等超乎人的功利性意誌邏輯的色彩之後,社會整體將越來越象一台大型的機器人而越來越有利於少數對社會有操控能力的人,就好比機器人越來越能服務於它們的主人一樣。這對社會整體恐怕不是一個好消息。。。



[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.