馬斯克:AI有20%的可能性毀滅人類

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

即使人工智能有五分之一的可能性會威脅人類生存,但埃隆·馬斯克(Elon Musk)仍非常確信這值得冒險。

在前段時間的Abundance360峰會上,馬斯克在“人工智能辯論”研討會上表示,他重新計算了人工智能這項技術的風險評估,他說:“我認為人工智能有可能毀滅人類,但總體還是利大於弊。”

但馬斯克沒有提及他是如何計算風險的。

人工智能安全研究員、路易斯維爾大學網絡安全實驗室主任羅曼·揚波爾斯基(Roman Yampolskiy)在接受《商業內幕》采訪時表示,馬斯克認為人工智能可能對人類構成生存威脅是正確的,但“如果有什麽問題的話,那就是他的評估有點過於保守了”。

“在我看來,人類遭遇厄運的可能性要高得多。”揚波爾斯基說。他所說的厄運指的是人工智能控製人類或導致人類終結事件的可能性,例如創造一種新型生物武器或由於大規模網絡攻擊或核戰爭而導致社會崩潰。

《紐約時報》稱厄運是“席卷矽穀的一種病態的新統計學”,該媒體援引多位科技高管的估計,他們認為人工智能能引發世界末日的可能性在5%到50%之間。但揚波爾斯基認為這一風險高達“99.999999%”。

揚波爾斯基說,因為我們不可能控製先進的人工智能,所以我們唯一的希望就是從一開始就不要創造它。

“不知道為什麽馬斯克認為研究人工智能是個好主意,”揚波爾斯基補充道,“如果他擔心競爭對手搶先一步,那大可不必,因為無論是誰創造了它,這種不受控製的超級智能給我們帶來的生存威脅都是一樣糟糕。”

去年11月,馬斯克表示,這項技術最終“變壞”的可能性“並非為零”,但他並沒有進一步說明,如果真的“變壞”,這項技術可能會毀滅人類。

盡管馬斯克一直是人工智能監管的倡導者,但馬斯克去年創立了一家名為xAI的公司,該公司致力於進一步擴大人工智能的力量。xAI是OpenAI的競爭對手,OpenAI是馬斯克在2018年退出董事會之前與薩姆·奧特曼(Sam Altman)共同創立的公司。

在峰會上,馬斯克估計,到2030年,數字智能將超過所有人類智能的總和。雖然他堅持認為研究人工智能利大於弊,但馬斯克也承認,如果人工智能在一些最直接的領域繼續按照目前的軌跡發展,世界將麵臨風險。

“你培養一個通用人工智能,這幾乎就像撫養一個孩子,但他是一個超級天才,所以你如何培養這個孩子很重要。”馬斯克在3月的一場矽穀活動中說,“人工智能安全方麵,我認為最重要的一點是需要培養一個最大程度尋求真相並且具有好奇心的AI。”

馬斯克表示,關於實現人工智能安全的最佳方式,他的“最終結論”是以迫使人工智能變得誠實的方式來發展人工智能。

“不要強迫它撒謊,即使事實令人不舒服。”馬斯克在談到保護人類免受科技侵害的最佳方法時說,“這非常重要,不要讓人工智能撒謊。”

據《獨立報》報道,研究人員發現,一旦人工智能學會對人類撒謊,使用當前的人工智能安全措施就不可能逆轉這種欺騙行為。

該媒體引用的研究稱,“如果一個模型由於欺騙性的儀器校準或模型中毒而表現出欺騙性行為,當前的安全培訓技術將無法保證安全,甚至可能造成一種安全的假象。”

更令人不安的是,研究人員補充說,人工智能可能會自己學會欺騙,而不是被專門教導說謊。

“如果它變得比我們聰明得多,它就會非常擅長操縱,因為它會從我們這裏學到這一點,”傑弗裏·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,他告訴CNN,“很少有一個更聰明的東西被一個不那麽聰明的東西控製的例子。”

gameon 發表評論於
這絕不是空穴來風。現在國內已經有公司打著訓練AI機器人玩打槍遊戲的名義,已經開始訓練機器人如何使用槍支,瞄準,射擊。雖然槍是塑料槍,射出的是塑料球,看到一幫書呆子工程師被射中的傻笑,就仿佛看到五年以後,機器人開槍主動殺人的慘狀。
gameon 發表評論於
現在國內已經有公司打著訓練AI機器人玩打槍遊戲的名義,已經開始訓練機器人如何使用槍支,瞄準,射擊。雖然槍是塑料槍,射出的塑料球,看到一幫書呆子工程師被射中的傻笑,就仿佛看到五年以後,機器人持槍主動殺人的慘叫。
Nevermind666 發表評論於
首富其實和川普真是同一類型的人,難怪惺惺惜惺惺。
1. 同樣是大嘴巴,什麽都是張嘴就來。
2. 同樣是投機客,川普在民主黨共和黨之間反複,尋求最大利益。馬斯克搞電車變暖教騙政府補貼發家,然後搖身一變成了右派代言人。
3. 同樣是始終亂棄,川普前後三個東歐老婆,老婆懷孕他出軌,還嫖妓。馬斯克就不說了,睡女下屬,當播種機。

lostman 發表評論於 2024-04-02 02:09:00
20%,馬斯克怎麽計算的,張嘴就來
Deepspace_01 發表評論於
AI確實可能學會人類的自私。但不會發生在中國。中國不會讓AI學習這些,隻會讓它們學習習思想之類。成為另一個八戒。所以中國的AI會讓你失業,但不會學到人類的自私。中國的AI 威脅人類,是靠超級應用習思想造成的。哈哈。
===============================================================
相信事實 發表評論於 2024-04-02 05:37:03
而作為智慧型武器,將來會不會脫離人類控製而消滅人類?完全可能,因為人類的自私本性肯定會傳染給這樣的機器,期望不會自私是不可能的。
DANIU_S 發表評論於
AI 對人類的貢獻是什麽,會對人類造成傷害有多大,難道美國國會不應該論證一下嗎?
退齋 發表評論於
這貨最能代表美國人的性格品行。
說活必須要用“數字”
“數字”就是“事實”
尼瑪 為什麽不是 23.5%
相信事實 發表評論於
人類的各種發明創造很多都是先用於軍事,也就是用來殺人的。AI肯定不會例外,肯定會有人用它去研究殺人武器,這是毫無疑問的。無論你想怎樣控製它不危害人類都隻是美好的願望,你能禁止核武器嗎?一旦怪獸產生了,就不可能消滅它。

而作為智慧型武器,將來會不會脫離人類控製而消滅人類?完全可能,因為人類的自私本性肯定會傳染給這樣的機器,期望不會自私是不可能的。

研製AI本身就是人的自私本質的體現,因為想用它為人類自己無償勞動,提供服務。而無論什麽服務,將來都需要資源,那麽人類為它注入可以掠奪資源而為自己獲得更多利益的想法你認為沒有人去想?一旦機器能夠自主獲得更多資源,使得它實現自我複製,人類還怎樣阻止它獲得資源?
弟兄 發表評論於
這可能性是百分之百,現在特斯拉的駕駛技術已經超過了人
木頭大哥 發表評論於
liar and scam
木頭大哥 發表評論於
馬斯克是個大忽悠。liar and Scam.
令胡衝 發表評論於


現在的AI全,毀滅人類可能性不到5%。現在AGI和AI最多隻能幫助恐怖分子、極端國家加速製造核武器、末日病毒武器、生化武器等等大規模殺傷性武器,比如美國、以色列、朝鮮、伊朗等等。這些武器可以製造大屠殺,但不足以毀滅人類。

如果十年後ASI超級智能出現,那毀滅人類可能性會超過80%。



Observer12 發表評論於
才20%,可能性很小啊
橡皮潛艇 發表評論於
ai有20%的可能性毀滅馬斯克,因為他被跟不上
meldyhk 發表評論於
老毛說,我們的人民中間有5%的右派。
lostman 發表評論於
20%,馬斯克怎麽計算的,張嘴就來