即使人工智能有五分之一的可能性會威脅人類生存,但埃隆·馬斯克(Elon Musk)仍非常確信這值得冒險。
在前段時間的Abundance360峰會上,馬斯克在“人工智能辯論”研討會上表示,他重新計算了人工智能這項技術的風險評估,他說:“我認為人工智能有可能毀滅人類,但總體還是利大於弊。”
但馬斯克沒有提及他是如何計算風險的。
人工智能安全研究員、路易斯維爾大學網絡安全實驗室主任羅曼·揚波爾斯基(Roman Yampolskiy)在接受《商業內幕》采訪時表示,馬斯克認為人工智能可能對人類構成生存威脅是正確的,但“如果有什麽問題的話,那就是他的評估有點過於保守了”。
“在我看來,人類遭遇厄運的可能性要高得多。”揚波爾斯基說。他所說的厄運指的是人工智能控製人類或導致人類終結事件的可能性,例如創造一種新型生物武器或由於大規模網絡攻擊或核戰爭而導致社會崩潰。
《紐約時報》稱厄運是“席卷矽穀的一種病態的新統計學”,該媒體援引多位科技高管的估計,他們認為人工智能能引發世界末日的可能性在5%到50%之間。但揚波爾斯基認為這一風險高達“99.999999%”。
揚波爾斯基說,因為我們不可能控製先進的人工智能,所以我們唯一的希望就是從一開始就不要創造它。
“不知道為什麽馬斯克認為研究人工智能是個好主意,”揚波爾斯基補充道,“如果他擔心競爭對手搶先一步,那大可不必,因為無論是誰創造了它,這種不受控製的超級智能給我們帶來的生存威脅都是一樣糟糕。”
去年11月,馬斯克表示,這項技術最終“變壞”的可能性“並非為零”,但他並沒有進一步說明,如果真的“變壞”,這項技術可能會毀滅人類。
盡管馬斯克一直是人工智能監管的倡導者,但馬斯克去年創立了一家名為xAI的公司,該公司致力於進一步擴大人工智能的力量。xAI是OpenAI的競爭對手,OpenAI是馬斯克在2018年退出董事會之前與薩姆·奧特曼(Sam Altman)共同創立的公司。
在峰會上,馬斯克估計,到2030年,數字智能將超過所有人類智能的總和。雖然他堅持認為研究人工智能利大於弊,但馬斯克也承認,如果人工智能在一些最直接的領域繼續按照目前的軌跡發展,世界將麵臨風險。
“你培養一個通用人工智能,這幾乎就像撫養一個孩子,但他是一個超級天才,所以你如何培養這個孩子很重要。”馬斯克在3月的一場矽穀活動中說,“人工智能安全方麵,我認為最重要的一點是需要培養一個最大程度尋求真相並且具有好奇心的AI。”
馬斯克表示,關於實現人工智能安全的最佳方式,他的“最終結論”是以迫使人工智能變得誠實的方式來發展人工智能。
“不要強迫它撒謊,即使事實令人不舒服。”馬斯克在談到保護人類免受科技侵害的最佳方法時說,“這非常重要,不要讓人工智能撒謊。”
據《獨立報》報道,研究人員發現,一旦人工智能學會對人類撒謊,使用當前的人工智能安全措施就不可能逆轉這種欺騙行為。
該媒體引用的研究稱,“如果一個模型由於欺騙性的儀器校準或模型中毒而表現出欺騙性行為,當前的安全培訓技術將無法保證安全,甚至可能造成一種安全的假象。”
更令人不安的是,研究人員補充說,人工智能可能會自己學會欺騙,而不是被專門教導說謊。
“如果它變得比我們聰明得多,它就會非常擅長操縱,因為它會從我們這裏學到這一點,”傑弗裏·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,他告訴CNN,“很少有一個更聰明的東西被一個不那麽聰明的東西控製的例子。”