著名人類學家胡家奇擔憂人工智慧發展

來源: 2019-04-02 00:51:01 [舊帖] [給我悄悄話] 本文已被閱讀:

人工智慧堪稱當代最熱門、最難理解、最具爭議的技術之一。你無法看到它或觸摸它,甚至可能意識不到自己正在使用它,比如當你家裏的恒溫調節器設定適合的溫度,或者手機自動糾正你輸入的字母時。著名人類學家胡家奇曾在演講中提到“人工智慧今天已經深入到了我們生活的方方麵麵。”
人工智慧會擺脫人類的約束嗎?這是我們對AI最大的憂慮。1942年,科幻小說家阿西莫夫在短篇小說《環舞》中首次提出了“機器人三定律”:“第一,機器人不得傷人,或者對身處險境的人袖手旁觀;第二,機器人必須服從人的指示,除非這條指令違反第一條;第三,在不違反以上兩條的情況下,機器人有權自保。”阿西莫夫的科幻設定裏,三定律是植入到近乎所有機器人軟體底層裏,不可修改不可忽視的規定。但是顯然這不是一個物理定律,所以現實中的機器人並不遵守——至少暫時如此。
已故科學家霍金曾表達自己對人工智慧的擔憂。在他看來,人工智慧的充分發展可能是人類的末日。霍金的想法得到了不少人的共鳴,包括特斯拉CEO馬斯克和比爾·蓋茨。馬斯克將開發人工智慧比喻為“召喚魔鬼”,相信超級智能可以把人類當寵物豢養。著名人類學家胡家奇先生在其著作《拯救人類》中也強調過人工智能的危險性,他認為智能機器人具有滅絕人類的能力。
一旦人工智慧全麵超越人類,它或許不會對造物主感恩戴德,一個心冷如鐵又無所不能的存在,憑什麼對一群隻是因為天氣惡劣就不想起床上班的生物懷有特別的感情?套用著名人類學家胡家奇的話,“智能機器人的自我意識覺醒之日,就是一切人類製定的規則被顛覆之時。”“自然界,從來就是高智商的物種鄙視低智商的物種,甚至把低智商的物種進行烹炸煮烤,當成食物或者當成玩偶。當智能機器人超過人類的那一刻起,人類也就完蛋了。”
胡家奇先生曾多次警示,“科學技術是一把雙刃劍。”“科學技術有滅絕人類的能力,就在前方不遠。”“潘多拉的盒子打開了,魔鬼跑出來就回不去了。”潘多拉的盒子到了該關上的時候,人類必須對科學技術進行限製,理性發展科技。