讓AI來做出道德選擇?專家建議輸入《世界人權宣言》

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

  人工智慧(AI)能代替人類完成許多工作與做自行做決定,然而隨著技術不斷進步,AI能否在更上一層,做出合乎倫理道德的決定呢?許多人認為將聯合國的《世界人權宣言》納入AI程式碼是一個不錯的辦法。

  根據《美國之音》報導,在史丹佛大學舉行的一場有關人工智慧倫理的會議上,專家們表示,AI的運用越來越廣泛,從開車、醫療,到幫助人們整理網路上的資訊,都有AI的參與。但他們也表示,隨著AI變得越來越聰明,工程師需要確保AI也會保護人類的價值。

  如何賦予AI道德?許多人認為將聯合國的《世界人權宣言》納入AI程式碼是一個不錯的辦法。但反對者表示,這項技術成果的好壞完全取決於工程師,令外對AI編碼更多的監管隻會扼殺創新。不過,目前對開放社會的挑戰並不是來自於對技術的過多管理,而是管理不足。穀歌、臉書、百度和騰訊等公司對AI技術的快速發展遠遠超出了政府監管範圍與法令製定速度,導致假新聞、侵犯個資等等嚴重問題。專家表示,確保AI的倫理實踐是必要的。

  美國國家人工智慧安全委員會主席、前穀歌首席執行長施密特(Eric Emerson Schmidt)說,"我們到這來的原因是希望進行公開辯論。我們希望確保我們正在建立的體係是以我們的價值觀、人類的價值觀為基礎的。"但緊接著另一個問題是,該由誰來決定人類的價值觀呢?這些專家表示,要確保人類未來的安全與保障,這項技術還有很長一段路要走。

吃素的狼 發表評論於
嗬嗬,這可不是個好兆頭。
做AI的,未必是政治正確的人,一旦輸入“我的奮鬥”,或者“斯大林主義”,或者阿狗阿貓主義,,
AI機器人的第一次世界大戰,就不遠廖。
怎麽打,誰贏,不知道。
唯一知道的就是,人類作為AI機器人的雇傭軍,從地球上消失廖。
nanxun_ 發表評論於
AI會跟左棍一樣,自己喜歡的才是民主自由,自己不喜歡的就打殺。所以什麽它都能變成它自己的標準,估計最後沒有一個人類合乎它的道德標準,弄不好人類都該被它擊斃。
七點 發表評論於
理想是豐滿的,現實是骨感的。
看看歐洲19世紀的烏托邦哲學產生的共產主義的實踐就知道拿AI做道德裁判會有什麽樣的結果。
pdong95014 發表評論於
天不生仲尼,萬古如長夜。人類就慢慢試錯吧。
phantomoftheopera 發表評論於
樓下,我的第一個想法和你是一樣的。
lemondrop 發表評論於
ai會完美的利用bug,不是個好選擇,人類是事情應該讓人類選擇
gameon 發表評論於
輸這沒啥用。

還是多輸入點美國槍擊案例吧,聰明的機器人會馬上知道如何做出道德選擇。
過濾詞 發表評論於
這是吃果果的反華行為。