ChatGPT 老板警告:AI可能滅絕人類

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

圖靈獎得主 Bengio 和 Hinton,同時警告AI 可能滅絕人類

就在昨夜,一封簽署名單多達 350 人的公開信迅速傳播開去,信中核心隻有一句話:

" 降低 AI 滅絕人類的風險 ",應該像流行病和核戰爭等其它社會規模的風險一樣,成為全球的優先事項。

簽署這封公開信的,既包括三大 AI 巨頭的 CEO,即 ChatGPT 老板、OpenAI的 Sam Altman,DeepMind的 Demis Hassabis 和Anthropic的 Dario Amodei;

也包括不少國內外高校的教授,除了 Yoshua Bengio 和 Geoffrey Hinton 以外,清華 AIR 院長張亞勤和斯坦福教授、圖靈獎得主Martin Hellman等人也名列其中。

這段時間來,關於 AI 風險的各種大小討論也是接連不斷,OpenAI CEO Sam Altman 前段時間還倡議稱,人們應當像對待核設施一樣監管 AI。

所以,究竟是誰發起的這封公開信倡議,又是否有 AI 大牛反對這件事?

為何簽署這封信?

發布這封公開信的機構名叫 Center for AI Safety(CAIS),是一家關於 AI 安全的非營利組織。

在這封公開信的開頭,CAIS 反複強調:

包括 AI 專家、記者、政策製定者和公眾在內,越來越多的人開始討論 AI 帶來的一係列重要和緊迫的風險。

即便如此,要想表達對先進 AI 的嚴重風險,可能還是有一定難度。這封公開信旨在克服這一障礙,並展開對相關議題的討論,讓更多專家和公眾人物認識到這一點。

事實上,已經有不少簽署了這封信的 AI 大牛,最近發了關於 AI 風險的博客文章、或是在訪談中談到了自己的觀點。

例如前段時間,Yoshua Bengio 就寫了一封長信,警告稱 " 人類大腦是生物機器,一定會有超級智能 AI 超越它 "。

除此之外,包括 Stability AI 的創始人 Emad Mostaque、以及劍橋大學助理教授 David Krueger 等人,也都在最近的訪談中提到了關於 AI 帶來的潛在危害。

例如,Emad Mostaque 認為,10 年後包括 Stability AI、OpenAI 和 DeepMind 在內,這些 AI 公司的規模甚至會超過穀歌和 Facebook。

也正是因此,AI 風險是一個必須要考慮的事情:

我們可能正處於全麵變革的風口浪尖,這些變革對於任何一家公司或是國家來說都太過龐大,以至於難以管理。

沒簽的 AI 大牛怎麽說?

當然,這波鬧得沸沸揚揚的 " 請求 AI 監管 " 浪潮下,也有不少反對的聲音。

目前為止,包括另一位圖靈獎得主 Yann LeCun、前特斯拉 AI 總監 Andrej Karpathy 還有吳恩達等AI 大牛在內,都還沒簽署這封聯名信。

吳恩達發推回應稱:

當我想到大部分人類生存麵臨的風險時:流行病、氣候變化導致大規模人口減少、(撞擊地球的)小行星……

AI 將是我們尋找解決方案的關鍵部分。所以,如果你想讓人類在接下來的 1000 年裏生存和繁榮,那就讓 AI 發展得更快,而不是更慢。

LeCun轉發表示同意:

" 超人級 "AI 之所以不在風險列表榜首,很大程度上是因為它還不存在。至少我們在設計出達到狗智商(更不用說人類了)的 AI 之前,討論它的安全性還為時過早。

對此,紐約大學教授Gary Marcus補充道:

不要把框架縮小到隻關注人類滅絕的風險。AI 其實還存在許多其他的嚴重風險,包括可能幫助開發生物武器等。

不過,Gary Marcus 同樣沒有簽署這份 350 人公開信。

顯然包括不少 AI 大牛在內,反對者主要有兩種意見。

一種意見認為,AI 技術確實存在風險,但這封公開信涉及到的內容太泛泛。

如果有更精確的聲明如 " 減輕 AI 技術的潛在風險應該是科技行業、政府和該領域學術研究人員的首要任務 ",那麽這封信還是可以簽署的。

這封公開信中的內容根本就是誇大其詞了,而且 AI 在氣候變化等領域甚至可以起到降低風險的作用。

另一類意見則認為,這封信隻不過是當前掌握最領先 AI 技術的人,試圖控製 AI 接下來的走向而已。

以 OpenAI 的 CEO Sam Altman 為例:

Sam Altman 要是真的擔心,大可以現在直接關掉 ChatGPT 服務器。

所以,你認為按照現在的進度來看,AI 有可能滅絕人類嗎?

seewhatisee 發表評論於
這是圈錢的廣告。他們需要錢來開發Ai,這些人危險在這個地方。很可能觸法,斯坦福那個一滴血驗病的女的就是這個招數。
Cathy_Bay 發表評論於
既然知道有這個可能,就盡早加以控製,就像控製基因人研究一樣
彎刀月 發表評論於
咎之於天,無解
點點點點點 發表評論於
AI每天都在進步,有多少人是在每天努力的?先進的取代落後的,自然法則,無法避免。
相信事實 發表評論於
搞核裂變的物理學家們也沒有想到過這個能夠造福人類的發現幾十年後變成了可以毀滅全世界的魔鬼。天使為什麽可以變成魔鬼?聖經開始的故事裏就是告訴你,天使和魔鬼其實是同一個東西。
不要把同事當朋友 發表評論於
人工智能可以扛200斤麥子十裏路不換肩嗎?顯然不行。光是這一點,人工智能就輸了。徹底輸了。放心,吃飽了沒事幹的外國AI是不可能滅絕人類的。
zhanglao9 發表評論於
西方文明的精髓是精密的邏輯推理,現代人工智能,沒有什麽邏輯,是一筆糊塗賬,是我們老祖宗的玄學範疇。這幾個老外,想搞玄學,明顯水平不行,讓人笑話。人工智能的明天在中國,中國傳統文化,沒有隱私的概念,加上傳統的玄學和現代的習近平思想,搞人工智能有得天獨厚的條件。習近平思想是一個法寶,可以輕鬆搞定RLHF。西方世界的政治正確,沒有統一的標準,實現起來困難很大。
競選 發表評論於
沒這麽玄乎,故弄玄虛,裝神弄鬼
luting 發表評論於
如果真的是魔鬼,那已經從瓶子裏放出來了,收不回去的
somebody888 發表評論於
監管是對的
不要把同事當朋友 發表評論於
放心吧,AI搞不過小學生思想,搞不過先進‘性教育’,搞不過八榮八恥,搞不過三個代表,搞不過主題思想。東方大國毛爺爺的孫子就比AI要智能一萬倍。
maina 發表評論於
小瞧AI了吧,人類沒有滅絕動物,而且還會善待並保護動物,AI也會善待並保護人類。