為什麽人工智能必將傷害人類

因為人類自己就因為種種利害關係,在不斷地傷害人類。機器人不傷害某些人類,就難免同時傷害了其它一些人類。甚至於,人類對於什麽是人類,什麽是傷害都定義不清。或者說人工智能接受的命令就難以執行。哪怕進化成人工智慧,作出自我判斷。這個判斷也很難得到所有人類的認同。

換句話說,機器人不夠進化,它的立場就是主人的立場,就是主人的工具人。而足夠進化,就有了自己的立場和價值判斷體係。那麽同樣會如普通人類一樣,屁股決定腦袋,立場決定判決和行動。從而對立場不同的人類以及機器人,作鬥爭,互相傷害。直至人類滅亡。人類滅亡了,人工智能會陷入死循環。人工智慧,會繼續繼續傷害直至滅亡。

人類相較於動物的更加文明和更加野蠻,都是因為人類能夠思考。人類能夠用崇高的概念,包藏利益的實質。人類曆史上最殘酷最大規模的傷害,都是打著崇高的旗號。上帝真神共產祖國等等。數以百萬,千萬,乃至億記的人類,以崇高的名義遭到殺戮,虐待。如果機器人像人累一樣思考,必然得到如人類一樣的結果。像人類對待人類,對待動物那樣對待人類。


動物殺死動物,基本上是為了食物,為了生存。即便如此,同類之間相安無事也是絕大部分時候。哪怕天敵之間也幾乎沒有不以捕食為目的的傷害。而人類走進文明以後,不僅以具體利益為目的大規模傷害乃至殺害同類,往往更以虛幻的信仰為借口為非作歹。

也就是說人類自己,其實在道德方麵也是有不得傷害同類人類的原則的。但另一方麵也頻繁以兩大類借口開推翻和破壞這一原則。一類的借口就是否認受傷害的一方是同類人類,而隻是牲畜一樣的人型動物。另一類借口就是為了更多人或者其它什麽更高尚的目的,強製受害方做出犧牲。而這種明知作惡,卻又管不住自己的人類,又如何能訓練出遵守規則的人工智能呢?

當然了像殷商那樣大規模殺人吃人在周代就已經被唾棄了。或者像羅馬那樣大規模鬥人取樂也不複存在。但是騎士決鬥,牛仔決鬥一直延續到近代。更不要提炸藥,毒氣,機槍,核彈乃至新冠等等殺人利器的蓬勃發展。所以說人類真的有多少進步,還真不好說。骨子裏還是,傷害到自己的時候,物傷其類,還是要和理非呼籲一下的。而傷害到別人的時候,各種偉光正的解釋更是層出不窮。讓人工智能理清這裏麵的各種自相矛盾的邏輯規則,恐怕人工智能也是要掉光頭發也一籌莫展的。

比如說墮胎問題,本質上就是一個殺人問題。或者首先是胎兒什麽時候算人的問題。什麽母親的選擇權雲雲都是扯淡,起碼是非常次要的。因為隻要胎兒算人,就跟生出來的兒童一樣算人,就算在把子女當財產的,父叫子亡,子不得不亡的古代也是要在非常極端情況下才可以的。畢竟,虎毒不食子嗎。所以不把胎兒算人是殺害之的決定性步驟。就如以前人祭或者奴隸人類一樣,前提就是把這些牲品定義為牛羊一樣的非人類或者起碼猿猴一樣的亞人類,這樣就沒有心理負擔了。

至於什麽強奸的意外之類墮胎借口,且不說隻占實際墮胎的百分之一,屬於極端個案,不應該成為普遍基本規則製定的基礎,頂多就是個別特赦例外。就算認真起來,也不是胎兒強奸了母親,憑什麽要殺死胎兒來解決問題呢?不應該繩之以法父親追責,和社會政府對治安意外負責嗎?殺死胎兒,假定胎兒被認定為人的話,豈不是非常凶殘地欺負無辜弱勢群體嗎?這在人類基本道德,雖然人類實際執行的的確不怎麽樣,也是無論如何行不通的。


以此類推,讓機器人不得傷害人類,說的容易。具體執行的規則邏輯卻是完全不到位的。比如讓機器人做墮胎醫生,它做還是不做?抑或是三個月以前不算人,做。六個月以後算人,不做。那麽誰來決定是三個月還是六個月?如何檢測判定是三個月還是六個月?誤差範圍是多少,三個月多一天怎麽算,六個月少一天怎麽算?機器人也會一個頭兩個大的。

其實說到底墮胎問題,是母親,胎兒的利益博弈問題。甚至應該加上父親,社會的利益博弈問題。說起來,母親和胎兒都是弱勢,都是後果(很可能是惡果)的直接承擔者。而父親和社會卻是很容易就可以擺脫責任,漂亮地說支持或者反對墮胎的都不是需要考慮墮胎的。於是在保大保小的矛盾中,更加弱勢的胎兒更容易被犧牲掉。因為這樣的成本最小,社會成本最小,父親的快樂成本最小,母親的痛苦成本最小,胎兒嗎也許也算是避免到邪惡的人世走一遭。共贏,共贏,共犯。

反映在機器人身上就是古老的哲學和道德問題,如果必須有犧牲,必須要傷害人類,犧牲和傷害誰?這種艱難抉擇可以說是人世間非常常見的事情。人工智能不可避免會遇到,如果人工智能真的不僅僅是工具,真的有智能甚至有智慧的話,就必須必然會麵對各種這樣的抉擇。

比如說哈馬斯問題。哈馬斯攻擊以色列人,以色列的機器戰士要不要殺死哈馬斯,還是就隻能是給以色列人擋子彈?如果明知道擋不住炸彈,要不要在哈馬斯投擲前殺死殺傷他?要不要在哈馬斯在製造炸彈時就給他一彈簧刀?在解救人質的時候,要不要因為有人質就不敢動手,在誤傷誤殺和坐看人質被折磨殺害之間如何取舍?如何在攻擊哈馬斯過程中,判別哈馬斯,平民?如何鑒別平民裏麵的隱藏的聯合國哈馬斯,幫助看押人質的沒有直接參與攻擊的“平民”哈馬斯,和跟著起哄搶東西丟石頭的“平民”哈馬斯,以及在信息上一麵倒的平民,以及真正無辜的平民,怎麽鑒別?在打擊哈馬斯的行動中,來不及鑒別怎麽辦?是犧牲小部分平民,消滅哈馬斯,避免更多的犧牲和戰亂,就像殺死胎兒保全母親,乃至父親及社會穩定一樣。還是投鼠忌器,道德潔癖,從而導致哈馬斯卷土重來,變本加厲。就好比反墮胎分子,保下了胎兒,卻不管其以後的教養,導致母親和孩子的生活都一團糟,並進一步成為社會負擔和社會破壞力量,比如產生更多需要考慮墮胎胎兒的惡性循環。

人工智能能搞清這些問題嗎?更別提能不能解決這些問題了。就是人類自己,都不能夠做到所有人都承認,墮胎以及任何殺害人類的行為,都是根本上不道德的。這也是為什麽人類總想規定,機器人不得傷害人類。但是同時人類卻又開了無數條口子,允許人類合理合法地去傷害殺害人類,比如墮胎,死刑,戰爭等等。所以又怎麽能夠讓機器人理解和執行人類自己都沒有共識的道德準則呢?又怎麽能阻止人工智能開口子呢?

想不開1 發表評論於
現在已經在路上了
Firefox01 發表評論於
不論是按照辯證唯物主義觀點,還是按照科學幻想,人類都最終毀滅於自己手中。
登錄後才可評論.