美學者:100年內AI消滅人類機率高達99.9%

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

▲美國一位大學教授兼AI安全研究者認為,未來100年內,AI導致人類滅絕的機率高達99.9%。

研究人工智慧(AI)的美國知名大學教授揚波爾斯基(Roman Yampolskiy)近日表示,他估計AI在未來100年內導致人類滅絕的機率高達99.9%,原因是至今仍沒有一個AI模型是完全安全的,未來也很難創造出零缺陷的高度複雜模型。不過,大多數AI研究者態度較為溫和,認為AI消滅人類的機率大約是1%到20%。

根據美媒《商業內幕》報導,揚波爾斯基在路易斯維爾大學(University of Louisville)教授電腦科學,專精網路與AI安全方麵研究。近日他出版新書《人工智慧:無法解釋、預測或控製》(AI: Unexplainable, Unpredictable, Uncontrollable.),並在一檔Podcast節目中談了2個多小時有關AI未來可能造成的風險,但所持態度相當悲觀。

人工智慧帶來人類滅絕風險

揚波爾斯基認為,AI是否滅絕人類的關鍵取決於,人類能否在未來100年內創造出高度複雜並且零出錯(with zero bugs)的軟體。但他估計這樣的可能性並不高,因為人們一直在試圖讓AI去做一些超出它原先設計範圍內的事情,因此迄今沒有任何一種AI模型是完全安全的

揚波爾斯基說,「它們已經釀成失誤,我們發生過意外,它們曾越獄(jailbroken)過。我不認為現今存在一個單一的大型語言模型是可以成功防止它做一些開發者不想讓它做的事。」

▲揚波爾斯基預測,AI機器人最終有可能可以獨力完成所有工作,人類將因此失去追求目標。

AI發展的3種悲慘結局

揚波爾斯基認為,為了控製AI,需要一個永久的安全機製,「即使我們在接下來來幾個版本的GPT中做得很好,AI也會繼續改進、學習、自我修改,並與不同的玩家互動,同時有生存風險,這『隻有一次機會』」。

揚波爾斯基警告,「我們無法預測一個更聰明的係統會怎麽做」。他在通用人工智慧(AGI)的背景下將人類比喻成鬆鼠,而AI卻能想出一些甚至人類還不知道存在的東西。揚波爾斯基預測了3種結局,其一是每個人都會死,其二是每個人都很痛苦並渴望死亡,其三是AI係統比人類更具創造力,並能完成所有工作,導致人類無所事事並完全失去他們的追求。

▲有關AI發展的安全性,科技界重要人物也曾發表看法。

其他人怎麽看?

揚波爾斯基受訪的Podcast節目主持人費裏曼(Lex Fridman)表示,與他討論過的大多數AI工程師都認為,AI消滅人類的可能性約在1%到20%之間。另外,最近一項針對2700名AI研究人員的研究結果顯示,此一機率隻有5%。

ChatGPT開發公司OpenAI的CEO奧特曼(Sam Altman)建議設立一個「監管沙盒」(regulatory sandbox),讓人們能在其中對AI進行實驗,並根據實驗結果進行監管與調整。奧特曼2015年曾半開玩笑地說,AI最有可能導致世界末日,但在此期間,會誕生許多偉大的公司。特斯拉執行長馬斯克(Elon Musk)也曾預測,AI毀滅人類的機率為10%到20%。

另外,前Google CEO施密特(Eric Schmidt)曾經表示,AI的真正危險在於網路與生物(生化)攻擊,但這些風險將在3到5年內顯現出來,若AI真的發展出意誌,他認為最簡單的解決方法是:人類可以直接拔掉插頭。

牛頭5 發表評論於
AI確實厲害,不過它必須政治正確,必須定於一尊。有這兩點,東西方哪個都搞不定,最後AI 大概率會自毀而亡。
弈銘 發表評論於
“人類可以直接拔掉插頭。”
"造物主創造了人,吹一口‘氣’,人就活了”。
人創造了AI,給它電,AI也就活了。
人拔掉插頭,沒有電,AI就死了。
造物主停掉了‘氣’,沒有氣,人也就死了。

scbean 發表評論於
胡咧咧,100年內,人類早就發明了其他軟件或技術把AI消滅了多少回了!
能消滅人類的隻有人類!
DANIU_S 發表評論於
Ai 的迅速發展,會影響人類的生育決策,不需要那麽多人了,還生他幹什麽呢?當然,如果政府的福利政策足夠好的話,也許可以延緩人類消亡的速度,但哪家政府會免費養那麽多的閑人?
天氣晚來秋 發表評論於
人類無法征服宇宙,隻有ai機器人有這種能力。機器人是更高形態的文明,人類退出曆史舞台是必定的事情。相信ai比較不能傷害人類,不是蠢就是笨
bluewave99 發表評論於
AI發展是條指數曲線。突破一定瓶頸之後就無可阻擋了。

尤其是AI一旦和硬件和自動化生產結合以後,人類拔插頭的機會就越來越小了。

所以AI 應用得越多,人類離自我毀滅也就越近。
lanxf126 發表評論於
磚家真會胡扯
遠方的湖 發表評論於
根本用不了100年。
說100年內是為了麻痹老百姓,讓人工智能繼續發展。
遠方的湖 發表評論於
許多人是按照人工智能現在的發展水平來評估風險,但科技大佬是按照人工智能發展的前景來評估風險。
前景是一目了然的:人工智能毫無疑問能夠在一切領域橫掃人類,並有能力毀滅人類。
問題的關鍵是人類能否控製人工智能的實體,理智分析的結果是不可能,因為人工智能發展到一定水平,可以百倍千倍萬倍強於人類。
人類應該盡可能的發展自動化而不是人工智能。兩者的區別是自動化盡管不可思議的的複雜,但隻是按照人類設定的程序工作,無法進行沒有人的指令的操作;而人工智能盡管現在水平較低,但能夠獨自按照自己學習的成果來進行全新的創新活動,人類根本無法控製。(02/04/2023)
不允許的筆名 發表評論於
對大多數人來說,要考慮5年內、10年內你的工作、你孩子的工作是否還有價值存在。從這一點上說,100年以及超出你擔心範圍了。

大多數“AI方麵工作”幾年內也沒有必要存在了。
大號螞蟻 發表評論於
時間也許能拖到幾百年。最終消滅人類是百分之百。
弟兄 發表評論於
人類的創造者會阻止AI
令胡衝 發表評論於


AI不會主動消滅人類。AI目前依靠人類而生存。人類也由於對A I技術的依賴,自身能力不斷退化,最終逐漸消亡。


金山人 發表評論於
AI本身並不可怕,可怕的是用AI來嚇人的人。
lostman 發表評論於
不能預測明天的,都是廢話
Panda-2020 發表評論於
先把AI公司滅了
voiceofme 發表評論於
語不驚人誓不休