我在城市的主要交通要道上開車時,有人突然亂穿馬路,嚇得我幾乎是無意識地刹車且把車頭轉向一側,就差那麽一點點就會發生嚴重車禍了。
事後,我驚恐未定,親友們就紛紛議論起來:有人說,你撞了亂穿馬路的人,那是他的錯;如果你轉車撞了別人的車,那是你的錯。也有人說,人命關天,那肯定要避免撞倒行人,你轉車道,不一定撞出人命。
於是乎,我想起了世界上好些城市已經出現的無人駕駛汽車,我不知道它們在我遇到的這種特殊情境是如何決策的呢?
我無法詢問無人駕駛汽車的軟件設計者,但我在以色列曆史學家尤瓦爾· 赫拉利的《今日簡史》一書中看到了他對這個問題的論述。
赫拉利提到了無人駕駛車輛在危急情況下的抉擇問題。他在書中寫道:假如有兩個小孩追球突然衝到一輛自動駕駛汽車的前麵,開著這台車的算法立即完成運算,得出結論:要避免撞到兩個小孩唯一方法是轉向逆行車道,但這可能撞上迎麵而來的卡車。根據算法,這個決策有70%的可能會讓坐在後座上的車主一命歸天。該算法屬於自動駕駛車的“利他款”,為了整體利益,即保護兩個小孩的生命而犧牲主人。如果“自我款”算法的無人駕駛車,遇到緊急情況時, 則會不惜一切保護主人,撞死兩個小孩也在所不惜。
所以說,無人駕駛車的算法完全由編製算法的人們所決定,由這些高手的世界觀、價值觀來編製算法,使用者隻能任其擺布。
如果,隻是如果,我們所坐的無人駕駛汽車的行駛過程中出現快速的“生存還是毀滅”的緊急狀況,那麽,這些車的算法是怎樣的呢?“利他款”還是 “自我款”,它的算法與抉擇是否與我們的世界觀一致呢?
當我們把自己的命運完全交給機器人,由算法來決定我們的生存或死亡時,應該清醒地知道,機器人永遠隻會服從算法的主人,絕不反抗。
這個角度一直是無人車發展瓶頸,就是一旦出事故誰負責?保險公司是不會認為無人車本身負責。
目前是由無人車使用公司負責,但公司也可以說製造商的產品不合格而推諉。
因此最終的依據是法律角度,如果孩子穿越道路是違法的,無人車會撞上去,假如不能停住的話。如果是合法的,比如正常穿越行人線,責任在無人車一方,是否是製造商的產品不合格是另一個層次。
而不會躲閃,因為躲閃而發生事故就成為無人車一方的法律責任。
這種單純隻考慮生命的問題是無解的,因為這類問題的提出是模仿選擇悖論實驗,你負責扳道岔,但一邊是十個大人,另一邊是一個小孩,你的選擇決定了哪一邊死亡,你怎麽選?
是基於道德還是成本,成本怎麽計算?道德成本也是成本。
從人類曆史來看,選擇的基礎是成本,在這裏的關於無人車的案例中,對自己,也就是無人車一方的成本最低是首要選項,最小的賠償成本,即事故責任在對方。
一條正常行駛的道路上是不應該有小孩出現的,如果出現,就是對方的責任,這是很容易理解的。