正文

無人駕駛汽車的生死抉擇

(2024-08-22 22:05:02) 下一個

我在城市的主要交通要道上開車時,有人突然亂穿馬路,嚇得我幾乎是無意識地刹車且把車頭轉向一側,就差那麽一點點就會發生嚴重車禍了。

事後,我驚恐未定,親友們就紛紛議論起來:有人說,你撞了亂穿馬路的人,那是他的錯;如果你轉車撞了別人的車,那是你的錯。也有人說,人命關天,那肯定要避免撞倒行人,你轉車道,不一定撞出人命。

於是乎,我想起了世界上好些城市已經出現的無人駕駛汽車,我不知道它們在我遇到的這種特殊情境是如何決策的呢?

我無法詢問無人駕駛汽車的軟件設計者,但我在以色列曆史學家尤瓦爾· 赫拉利的《今日簡史》一書中看到了他對這個問題的論述。

赫拉利提到了無人駕駛車輛在危急情況下的抉擇問題。他在書中寫道:假如有兩個小孩追球突然衝到一輛自動駕駛汽車的前麵,開著這台車的算法立即完成運算,得出結論:要避免撞到兩個小孩唯一方法是轉向逆行車道,但這可能撞上迎麵而來的卡車。根據算法,這個決策有70%的可能會讓坐在後座上的車主一命歸天。該算法屬於自動駕駛車的“利他款”,為了整體利益,即保護兩個小孩的生命而犧牲主人。如果“自我款”算法的無人駕駛車,遇到緊急情況時, 則會不惜一切保護主人,撞死兩個小孩也在所不惜。

 所以說,無人駕駛車的算法完全由編製算法的人們所決定,由這些高手的世界觀、價值觀來編製算法,使用者隻能任其擺布。

 如果,隻是如果,我們所坐的無人駕駛汽車的行駛過程中出現快速的“生存還是毀滅”的緊急狀況,那麽,這些車的算法是怎樣的呢?“利他款”還是 “自我款”,它的算法與抉擇是否與我們的世界觀一致呢?

當我們把自己的命運完全交給機器人,由算法來決定我們的生存或死亡時,應該清醒地知道,機器人永遠隻會服從算法的主人,絕不反抗。

[ 打印 ]
閱讀 ()評論 (6)
評論
西岸-影 回複 悄悄話 這種情況下是不會保護小孩的,因為無人車首先需要考慮的是法律層次的問題,而不是生命。
這個角度一直是無人車發展瓶頸,就是一旦出事故誰負責?保險公司是不會認為無人車本身負責。
目前是由無人車使用公司負責,但公司也可以說製造商的產品不合格而推諉。
因此最終的依據是法律角度,如果孩子穿越道路是違法的,無人車會撞上去,假如不能停住的話。如果是合法的,比如正常穿越行人線,責任在無人車一方,是否是製造商的產品不合格是另一個層次。
而不會躲閃,因為躲閃而發生事故就成為無人車一方的法律責任。
這種單純隻考慮生命的問題是無解的,因為這類問題的提出是模仿選擇悖論實驗,你負責扳道岔,但一邊是十個大人,另一邊是一個小孩,你的選擇決定了哪一邊死亡,你怎麽選?
是基於道德還是成本,成本怎麽計算?道德成本也是成本。
從人類曆史來看,選擇的基礎是成本,在這裏的關於無人車的案例中,對自己,也就是無人車一方的成本最低是首要選項,最小的賠償成本,即事故責任在對方。
一條正常行駛的道路上是不應該有小孩出現的,如果出現,就是對方的責任,這是很容易理解的。
基多山人 回複 悄悄話 電腦的基礎是數學,所以沒有考慮主人客人的問題。如果是機器人駕駛,那就要看你是否有特殊指令了。
dhyang_wxc 回複 悄悄話 這個問題數年前在美國民調過,買車時,如果車主可選,大約~90%的選犧牲自己。但問卷換成買車給自己的孩子、配偶、情人後,掉到了一半以下。這兩組數不準,我記不得了,但大幅下降記得很清楚。這就回到了哲學的電車難題。電車難題又是孟子的義的問題的一個子集。


北京_01link 回複 悄悄話 無人駕駛汽車應當在特定的環境下使用,在可能頻繁出現意外的地方,諸如城市中心,禁止使用。
槍迷球迷 回複 悄悄話 這個問題提得很開腦洞。 我的答案是隻要自己還能開車就不把命運交給自動駕駛程序猿。
ahhhh 回複 悄悄話 這有什麽問題呢?
登錄後才可評論.