內容提要: 傑弗裏·辛頓在《CEO日記》的訪談
-
人工智能的危險性:
-
人工智能可能比人類更聰明,導致人類失去控製或被淘汰。 -
存在人工智能被濫用(如自主武器)和人工智能自身威脅(決定不再需要人類)兩種風險。
-
-
人工智能發展趨勢:
-
人工智能在醫療、教育、數據利用等領域有巨大潛力,但也會被用於軍事目的。 -
人工智能發展不會停止,因為其在太多方麵表現出色。
-
-
人工智能監管問題:
-
現有監管措施(如歐洲法規)不足以應對所有威脅,尤其是軍事用途。 -
缺乏有效的世界政府來監管人工智能發展。 -
資本主義追求利潤最大化的動機與人工智能的安全發展相悖。
-
-
人工智能帶來的具體風險:
-
網絡攻擊數量激增,人工智能可能創造新型網絡攻擊。 -
利用人工智能製造危險病毒。 -
人工智能操縱選舉,通過精準政治廣告獲取選民數據。 -
回聲室效應加劇社會分裂,社交平台算法推送極端內容。 -
致命自主武器降低大國入侵小國的成本。
-
-
如何應對人工智能威脅:
-
阻止人工智能產生消滅人類的想法,而非試圖在它變聰明後阻止它。 -
推動政府強製企業投入資源研究人工智能安全。
-
-
伊利亞·蘇茨克維離開OpenAI的原因:
-
對人工智能安全性擔憂,認為OpenAI減少了對安全研究的投入。
-
-
人工智能可能導致的失業:
-
人工智能將取代大量普通腦力勞動,創造的新就業機會有限。 -
失業問題可能導致社會動蕩和幸福感下降。
-
-
人工智能與人類的區別:
-
人工智能是數字化的,可以無限複製、共享信息,且具備永生性。 -
人工智能在知識量和發現類比方麵超越人類。
-
-
人工智能的情感和意識:
-
機器有可能擁有情感,即使沒有生理反應,認知層麵和行為層麵也是存在的。 -
機器可能具備自我意識,從而具備一定的意識。
-
-
對未來職業前景的建議:
-
學習從事需要物理操作的行業,例如水管工。
-
-
個人經驗和建議:
-
堅持自己的直覺,即使與所有人不同。 -
花更多時間陪伴家人。
-
-
對人類幸福的最大威脅:
-
大量失業導致人們失去目標和尊嚴。
-
訪談全文
引言
主持人: 他們稱您為“人工智能教父”。那麽,對於身處超級智能時代的人們,您對他們的職業前景有何建議?——去學當水管工。真的嗎?(笑)好吧,我這就去學怎麽當水管工。傑弗裏·辛頓,諾貝爾獎得主,人工智能領域的先驅,他的開創性工作不僅塑造了人工智能,也深刻影響著人類的未來。
傑弗裏·辛頓: 因為在那個時代,鮮有人相信我們能夠模仿大腦來構建人工智能模型,讓它學會處理複雜任務,比如圖像識別,甚至推理。我為此努力了長達50年。後來,穀歌收購了這項技術,我在穀歌工作了十年,我的研究成果如今已廣泛應用於人工智能領域。
主持人: 然後您離開了?
傑弗裏·辛頓: 是的。
主持人: 為什麽?傑弗裏·辛頓: 這樣我就可以更自由地表達我的看法了。
主持人: 您想自由談論什麽呢?
傑弗裏·辛頓: 人工智能潛在的巨大危險。我意識到,這些人工智能係統總有一天會超越人類智能,而我們從未遭遇過這樣的局麵。如果你想知道當人類不再是地球上最聰明的物種時生活會怎樣,去問問雞就知道了。 因此,風險既來自於人類對人工智能的濫用,也來自於人工智能自身發展到超級智能後,可能決定不再需要我們。
主持人: 這風險真實存在嗎?
傑弗裏·辛頓: 是的,千真萬確。但發展人工智能的腳步不會停止,因為它在太多領域都表現得太出色了。
主持人: 那麽監管呢?
傑弗裏·辛頓: 目前有一些監管措施,但這些措施並未針對大部分潛在威脅而設計。例如,歐洲的法規中明確指出,這些規定不適用於人工智能的軍事應用。
主持人: 真的嗎?
傑弗裏·辛頓: 是的。
主持人: 這太瘋狂了。
主持人: 伊利亞·蘇茨克維可能是開發早期版本ChatGPT背後最重要的人物之一。我認為他離開是因為他擔心安全性。我們應該認識到這‘玩意兒’(人工智能)是一種生存威脅。我們必須麵對這種可能性:除非我們盡快采取行動,否則我們正走向末日。
他們為什麽稱您為“人工智能教父”?
主持人: 他們稱您為“人工智能教父”。
傑弗裏·辛頓: 是的,他們是這麽叫我的。
主持人: 他們為什麽這麽稱呼您呢?
傑弗裏·辛頓: 那個時候,相信人工神經網絡能行得通的人寥寥無幾。因此,自20世紀50年代以來,人工智能領域對於如何實現人工智能,長期存在兩種主流觀點。第一種觀點認為,人類智能的核心在於推理。而要實現推理,就必須運用某種形式的邏輯。所以,這種觀點主張人工智能必須建立在邏輯之上,認為我們頭腦中存在某種符號表達式,我們通過規則來操縱這些表達式,智能便是如此運作的。至於類比學習或更高級的推理,則要等到我們完全搞清楚基本推理的原理之後才能實現。
還有一種不同的方法則建議,我們應該模仿大腦來構建人工智能模型,因為正是大腦賦予了我們智能。這具體包括在計算機上模擬腦細胞(神經元)網絡,並找出學習調整神經元之間連接強度的方法,從而使神經網絡能夠學會執行複雜任務,例如圖像識別、語音識別,乃至進行推理。
我堅持並推廣這種方法大約50年之久。由於當時信奉這一理念的人實在太少,頂尖大學裏鮮有專門研究此方向的團隊。結果,那些真正信奉這一方法的頂尖年輕學子,都紛紛前來與我共事。我很幸運,能擁有許多如此出色的學生。
主持人: 他們中的一些佼佼者,後來參與創建了像OpenAI這樣的平台,並在其中扮演了舉足輕重的角色。
傑弗裏·辛頓: 是的,伊利亞·蘇茨克維(Ilya Sutskever)就是一個很好的例子,類似的還有很多。
主持人: 為什麽您認為模仿大腦是更有效的方法?
傑弗裏·辛頓: 並非隻有我一人持此信念。早期,像馮·諾依曼和圖靈這樣的巨匠也都認同這一路徑。如果他們中任何一位能活得更久一些,我相信人工智能的曆史將會截然不同。但他們都英年早逝了。
主持人: 您認為人工智能會更早出現嗎?
警告人工智能的危險
傑弗裏·辛頓: 我認為,如果他們還在世,神經網絡這條路徑會更快地被學術界所接受。
主持人: 在您人生的這個階段,您的使命是什麽?
傑弗裏·辛頓:我現在的主要使命,就是警示世人人工智能潛在的巨大風險。
主持人: 當您被譽為“人工智能教父”時,您預見到這些危險了嗎?
傑弗裏·辛頓: 不,其實並沒有。坦白說,我在理解某些風險方麵,反應是相當遲鈍的。有些風險一直都顯而易見,例如,人們會利用人工智能製造自主致命武器——也就是說,這些武器能夠自行決定攻擊目標。至於其他風險,比如人工智能有朝一日會超越人類智能,甚至可能讓我們變得無足輕重——我花了很長時間才真正意識到這一點。有些人早在20年前就預見到了。而我直到幾年前才幡然醒悟,這是一種真實存在的風險,並且可能很快就會降臨。
主持人: 這真令人意外。考慮到您對計算機學習能力的深入理解,特別是如何讓它們像人類一樣學習,並不斷取得進步的洞察,
傑弗裏·辛頓: 這是個好問題:我怎麽可能沒有預見到呢?但請記住,二三十年前的神經網絡,其能力還非常初級。無論是在視覺、語言還是語音識別方麵,它們都遠遜於人類。在那個時候,擔心它會比人類更聰明,聽起來簡直是天方夜譚。
當ChatGPT橫空出世時,公眾的看法徹底改變了。而對我個人而言,當我意識到我們正在創造的這種數字智能,其內在的某些特性使其遠超我們生物智能的時候,我的看法也隨之改變。
如果我想與你分享信息,我會先學習一些知識,然後將我學到的內容告訴你。為此,我會組織語言,生成一些句子。這是一個相當簡化的模型,但大體上是正確的。與此同時,你的大腦也在試圖弄清楚如何調整神經元之間連接的強度。
例如,當出現一個非常出乎意料的詞時,你會進行大量的學習;而當詞語的出現合乎情理、顯而易見時,學習效果就沒那麽顯著。比如我說“魚和……薯條”,當我說出“薯條”時,你不會學到太多,因為它在預料之中。但如果我說“魚和……黃瓜”,你會學到更多,因為你會好奇:“他為什麽會說黃瓜?”
所以,這大致就是你的大腦中發生的事情。
那麽,接下來呢?我們推測大腦是這樣運作的。但沒有人真正確切地知道大腦的工作原理。同樣,也沒人知道大腦是如何獲取調整連接強度(是增強還是減弱)的反饋信息的。這恰恰是關鍵所在。然而,通過人工智能的研究我們現在了解到,如果你能獲得這種關於增強或減弱連接強度的信息——這種信息能幫助你在任何嚐試的任務上做得更好——那麽係統就能學到令人難以置信的東西。這正是我們目前在人工神經網絡上所做的事情。隻不過,對於真實的大腦,我們仍然不清楚它們是如何獲得那個“增強或減弱”的信號的。
我們應該擔憂的人工智能問題
主持人: 今天我們在此對談,關於人工智能的安全,您目前主要的擔憂有哪些?如果要列舉幾個您認為最值得關注、最應該深思的問題。
傑弗裏·辛頓: 我可以多列舉幾個嗎?
主持人: 當然,請講。我會把它們都記下來,然後我們再逐一深入探討。
傑弗裏·辛頓: 好的。首先,我想區分兩種截然不同的風險。第一種,是人類濫用人工智能所帶來的風險。這構成了當前風險的大部分,也是所有短期內可見的風險。第二種,則是人工智能發展到超級智能階段,並可能決定不再需要我們人類時所帶來的風險。
主持人: 那是真實的風險嗎?
傑弗裏·辛頓: 我主要想談論第二種風險,因為很多人會問:‘這風險真實存在嗎?’是的,它確實存在。我們目前尚不清楚這種風險的具體程度。我們從未經曆過這樣的局麵,從未需要麵對一個比我們更聰明的存在。因此,這種生存威脅的關鍵在於,我們根本不知道該如何應對。我們甚至不知道它具體會以何種形態出現。任何聲稱確切知道未來會發生什麽以及如何應對的人,都是在信口開河。 所以,我們無從估計人工智能取代人類的概率有多大。有些人說概率不到1%。比如我的朋友楊立昆(Yann LeCun),他曾是我的博士後,他認為不不不,我們人類始終能掌控局麵,畢竟是我們創造了這些東西,我們會讓它們服從於我們。而另一些人,例如尤德科夫斯基(Eliezer Yudkowsky),則認為不不不,這些東西必將毀滅我們。一旦有人成功創造出這種超級智能,它就會消滅全人類。他對此深信不疑。在我看來,這兩種立場都過於極端。很難估算介於這兩種極端之間的真實概率。
主持人: 如果您必須在您的這兩位朋友之間押注,您認為誰的觀點更接近真相?
傑弗裏·辛頓: 我真的不知道。所以,如果非要我下注,我會說概率介於兩者之間,但我無法給出具體的估算值。我常說,人工智能毀滅人類的概率大約在10%到20%之間。但這僅僅是我的直覺,它基於以下幾點:我們仍在繼續開發它們;我們人類也相當聰明;並且我抱有希望——如果足夠多的聰明人投入足夠的資源進行研究,我們或許能找到一種方法來構建它們,確保它們永遠不會產生傷害我們的意圖。
主持人: 有時候我在想,當我們討論這第二種風險(人工智能自身的威脅)時,我常會聯想到核武器和原子彈的發明。這兩者有何不同?它們之間該如何比較呢?因為當原子彈問世時,我想當時許多人都覺得人類的末日屈指可數了。
傑弗裏·辛頓: 是的,我經曆過那個時代。
主持人: 但我們還在這裏啊。
傑弗裏·辛頓: 是的,我們還在這裏。原子彈實際上隻擅長做一件事,而且其破壞原理非常直觀。即便你沒有親眼見過廣島和長崎的慘狀,也很容易明白那是一種威力巨大、極其危險的炸彈。但人工智能則不同,它擅長處理許許多多不同的事情。它將在醫療、教育等領域帶來巨大進步;幾乎所有依賴數據的行業,都能通過人工智能更好地利用數據。因此,我們不會停止發展人工智能。有人可能會問:‘那我們為什麽不現在就停止研發呢?’答案是,我們不會停止,因為它在太多方麵都表現得太出色、太有用了。
歐洲人工智能法規
傑弗裏·辛頓: 此外,我們也不會停止發展它,因為它在軍事機器人領域大有可為。而且,沒有任何一個軍火出口國會願意停止這方麵的研發。例如,歐洲針對人工智能出台了一些法規。有這些規定固然是好事,但它們的設計初衷並非為了應對絕大多數的潛在威脅。
特別值得注意的是,歐洲法規中有一項條款明確指出:所有這些規定均不適用於人工智能的軍事用途。這意味著,政府樂於監管企業和個人,卻不願監管其自身。
主持人: 這一點讓我覺得相當瘋狂。我一直在思考,如果歐洲製定了法規,而世界其他地區沒有跟進,那我們豈不是在給自己製造競爭劣勢嗎?
傑弗裏·辛頓: 是的,確實如此。
主持人: 我們已經目睹了這種情況。我認為人們尚未意識到,當OpenAI在美國發布一款新模型或軟件時,由於歐洲的法規限製,它往往無法同步在歐洲上線。所以,薩姆·奧特曼(Sam Altman)就曾發推文表示,他們新的人工智能代理已向所有人開放,但由於法規問題,暫時還無法進入歐洲市場。這會帶來什麽後果呢?這會使我們在生產力上處於劣勢。一種生產力上的巨大劣勢。
傑弗裏·辛頓:在曆史的這個關鍵節點,當我們即將創造出超越自身智能的造物之時,我們真正需要的,是一個由睿智、深思熟慮的人們所運作的、有效的全球治理體係。 然而,目前我們並沒有這樣的體係。
如今的局麵是各自為政。我們身處資本主義體係之中,它在很多方麵確實為我們帶來了益處。它為我們生產了海量的商品與服務。但問題在於,那些大型科技公司在法律上被要求以追求利潤最大化為首要目標。而這,恰恰不是你在開發這類強大技術時所希望看到的驅動力。
主持人: 那我們來說說風險吧。你提到了人為風險。
傑弗裏·辛頓: 我已經區分了這兩種風險。我們來談談心懷不軌者利用人工智能帶來的種種風險。有網絡攻擊。從2023年到2024年,網絡攻擊大約增加了12倍,也就是1200%。這可能是因為大型語言模型使得發起網絡釣魚攻擊變得容易得多。
主持人: 對於不了解網絡釣魚攻擊的人來說——
傑弗裏·辛頓: 他們會給你發一些信息,比如“嗨,我是你朋友約翰,我被困在薩爾瓦多。你能給我匯點錢嗎?”這是一種攻擊。但網絡釣魚攻擊的主要目的是想獲取你的登錄憑據。
主持人: 現在有了人工智能,他們可以克隆我的聲音、我的形象,無所不能。我現在就深受其擾,因為X平台和Meta平台上充斥著大量人工智能詐騙。尤其是在Meta平台,也就是Instagram和Facebook上,有一個付費廣告,盜用了我在播客裏的聲音。他們模仿我的言行舉止,製作了一個新視頻,引誘人們參與加密貨幣龐氏騙局。我們花了好幾個星期給Meta發郵件要求刪除。他們刪掉一個,又冒出來一個;再刪掉,又冒出來一個新的。簡直就像打地鼠遊戲。最令人心碎的是,你會收到那些上當受騙者的消息,他們損失了500英鎊。
傑弗裏·辛頓: 他們會因為是你“推薦”的而對你感到憤怒。我為他們感到難過,這確實非常煩人。我也遇到過類似但規模較小的情況:有些人發表論文時會把我列為合著者,似乎是為了借此提高他們論文的引用量
主持人: 啊。所以網絡攻擊是一個非常真實的威脅,對此我深有體會。
傑弗裏·辛頓: 是的。而且,人工智能非常有耐心,可以審查數億行代碼,尋找已知的攻擊向量——這很容易做到。但它們會變得更具創造力。一些消息靈通人士相信,或許到2030年,人工智能將創造出人類從未想象過的新型網絡攻擊。這非常令人擔憂。
傑弗裏·辛頓: 因為它們能夠獨立思考並發現新的攻擊方法,能從遠超人類接觸範圍的海量數據中得出新的結論。
主持人: 您有沒有采取任何措施來保護自己免受網絡攻擊?
傑弗裏·辛頓: 有。鑒於我對網絡攻擊的恐懼,這是我唯一徹底改變做法的方麵。加拿大的銀行非常安全。2008年金融危機時,沒有一家加拿大銀行瀕臨倒閉。它們之所以安全,是因為監管良好且相當完善。即便如此,我仍然認為網絡攻擊可能導致銀行倒閉。
現在,如果我把所有存款都換成銀行持有的股份。那麽,即使銀行遭到攻擊,它持有的股份仍然是你的。所以我認為你會安然無恙——除非攻擊者賣掉了這些股份,因為銀行有權出售股份。如果攻擊者賣掉了你的股份,我想你就完了。我不知道,也許銀行必須盡力賠償你,但到那時銀行可能已經破產了,對吧?
所以我擔心加拿大的銀行會因網絡攻擊而崩潰,以及攻擊者會賣掉銀行持有的股份。為了降低這種風險,我把我的錢和我孩子的錢分散存放在三家不同的銀行。我相信,如果一家加拿大銀行因網絡攻擊而倒閉,其他加拿大銀行會立刻變得非常警惕。
主持人: 您有沒有一部不聯網的手機?您有沒有考慮過,比如,存儲數據這類事情?您認為考慮離線存儲明智嗎?
使用人工智能製造病毒
傑弗裏·辛頓: 我有一個小硬盤,用來備份我的筆記本電腦。所以,我筆記本電腦上的所有東西實際上都有備份。至少,我知道如果整個互聯網癱瘓了,我的信息還在筆記本電腦的備份裏。接下來一個問題是利用人工智能製造危險病毒。
主持人: 我很關心這個問題。
傑弗裏·辛頓: 問題在於,隻需要一個心懷怨恨的瘋子——他懂一點分子生物學,精通人工智能,並且一心想毀滅世界——就夠了。現在,利用人工智能製造新病毒的成本相對較低,而且你不需要是頂尖的分子生物學家也能做到。這非常可怕。例如,一個小規模的邪教組織,他們可能籌集到幾百萬美元,用這筆錢就能設計出多種病毒。
主持人: 我在想,我們的一些外國對手會不會進行政府資助的項目。我不知道。
人工智能與選舉操縱
傑弗裏·辛頓: 我認為他們可以。但他們會擔心遭到報複,擔心其他政府對他們采取同樣的手段。希望這能起到一定的製約作用。他們可能還會擔心病毒蔓延到自己的國家。接下來是操縱選舉。如果你想用人工智能操縱選舉,一個非常有效的方法就是進行精準的政治廣告投放,這需要大量關於選民個人的信息。
因此,任何想利用人工智能操縱選舉的人,都會試圖盡可能多地獲取所有選民的信息。考慮到這一點,埃隆·馬斯克目前在美國的一些做法就有點令人擔憂了。他正在介入並堅持要求獲得那些本應被小心隔離的數據的訪問權,聲稱是為了提高效率——但這恰恰是操縱下屆選舉所需要做的事情。
主持人: 您是什麽意思?因為你可以得到所有這些……
傑弗裏·辛頓: 你可以獲得關於人們的所有這些數據:他們賺多少錢,他們的一切。一旦掌握了這些,操縱他們就易如反掌。因為你可以製造一個人工智能,向他們發送極具說服力的信息,比如勸他們不要投票。我這麽想並無特殊理由,隻是基於常識,但如果說從美國政府獲取這些數據的部分動機是為了操縱選舉,我一點也不會驚訝。另一部分原因可能是,這對大型模型來說是絕佳的訓練數據。
主持人: 但他必須從政府那裏獲取這些數據,並將其輸入到他的模型裏。
傑弗裏·辛頓: 他們所做的就是關閉了許多安全控製,並取消了一些旨在防範風險的組織架構。
人工智能如何製造回音室
主持人: 所以這就是操縱選舉。
傑弗裏·辛頓: 好的。然後就是像YouTube和Facebook這類平台製造的回音室效應,它們向人們展示那些會激起其義憤的內容。人們喜歡這種義憤填膺的感覺。
主持人: 義憤是憤怒的意思嗎?義憤是什麽意思?
傑弗裏·辛頓: 有點生氣,但又覺得自己站在正義的一方。舉個例子,如果你給我看一條內容寫著“特朗普做了這件瘋狂的事”,附帶著一段特朗普正在做這件瘋狂之事的視頻,我會立刻點開。
主持人: 好的,所以這把我們置於回音室中,分裂我們。
傑弗裏·辛頓: 正是YouTube、Facebook等平台決定給你看什麽內容的算法策略導致了這種情況。如果它們的策略是展示平衡的內容,就無法獲得那麽多點擊量,也賣不出去那麽多廣告。所以,基本上是利潤動機驅使它們:“給用戶看任何能讓他們點擊的內容。”而能讓他們點擊的內容,則變得越來越極端。
傑弗裏·辛頓: 這不斷強化我固有的偏見。所以,你的偏見也一直在被強化。
主持人: 越來越遠,越來越遠,這意味著你……
傑弗裏·辛頓: 如今,在美國,有兩個幾乎不互相交流的群體。
主持人: 人們並沒有意識到,每次打開一個應用程序時,這一切都在悄然發生。但如果你刷TikTok、看YouTube或使用這些大型社交網絡,其算法,正如你所說,就是為了給你看更多你上次感興趣的內容。如果這種情況持續十年,它會把你進一步推向你所持有的任何意識形態或信仰的極端,讓你遠離微妙的真相、常識和平衡——這是非常值得警惕的。人們對此渾然不覺。他們隻是打開手機,體驗著推送給他們的內容,並以為這就是新聞,或者以為其他人也在經曆同樣的現實。
傑弗裏·辛頓: 是的。基本上,過去如果有一份報紙,大家讀的都是同一份,你就能看到各種你並非刻意尋找的內容,你會覺得報紙上刊登的便是重要或有意義的事。但現在,如果你有自己的個性化新聞推送,比如我iPhone上的新聞源,四分之三的內容都與AI相關。我就很難判斷,究竟是全世界都在談論AI,還是僅僅我的新聞推送如此。
主持人: 好吧,這把我推入了我的回音室,使我們更加分裂。我確實注意到算法變得越來越……怎麽說呢?度身定製。人們可能會覺得“哦,太好了”,但這恰恰意味著它們更加個性化,也意味著我的現實和你的現實之間的鴻溝越來越大。
傑弗裏·辛頓: 是的,這太瘋狂了。我們不再擁有一個共同的現實。 我和那些看BBC新聞、讀《衛報》或《紐約時報》的人共享一個現實。但我和那些看福克斯新聞的人,幾乎沒有任何共同的現實可言。
主持人: 這真是,我不知道該怎麽說。
傑弗裏·辛頓: 這令人擔憂。這一切的根源在於:這些公司隻想盈利,為了賺取更多利潤,它們會不惜一切代價。因為它們必須這麽做,法律上甚至有義務這麽做(指對股東的信托責任)。
主持人: 所以我們幾乎不能責怪這些公司,是嗎?
監管新技術
傑弗裏·辛頓: 資本主義確實帶來了諸多益處,創造了許多好東西。但它需要非常好的監管。我們真正需要的是製定規則,確保公司在追求利潤最大化的同時,其行為必須對公眾有利,而非有害。
因此,一旦公司為了賺取更多利潤而開始從事對社會極為不利的行為——比如向你推送愈發極端的內容——監管就變得至關重要。所以說,資本主義離不開監管。
現在,公司總會抱怨監管礙事、降低效率,這沒錯。但監管的全部意義,恰恰在於阻止它們為了逐利而損害社會。 我們需要強有力的監管。
主持人: 那誰來決定什麽是損害社會呢?
傑弗裏·辛頓: 那是政客的工作。不幸的是,如果政客被公司控製,那就不太妙了。
主持人: 而且政客們可能也不懂技術。你或許看過那些參議院聽證會,當他們把馬克·紮克伯格和那些科技巨頭的CEO們請來時,場麵相當尷尬,因為議員們提出的問題本身就顯得非常外行。
傑弗裏·辛頓: 我看過一段美國教育部長談論如何將AI引入課堂的視頻,結果她把AI說成了“A1”。她確實在視頻裏說,我們要讓所有孩子都和“A1”互動。
美國教育部長: 有一個學校係統將開始確保一年級甚至學前班的學生從這麽小的年紀就開始每年接受 A1 的教學。這真是件美妙的事。
傑弗裏·辛頓: 而這些人,就是我們的負責人。
主持人: 歸根結底,真正負責的還是科技公司自己。
監管是否阻礙我們與中國競爭?
傑弗裏·辛頓: 因為他們更聰明。嗯,至少幾周前我在美國的時候,那裏的科技公司正在投放廣告,宣稱不監管AI至關重要,否則會損害我們與中國的競爭力。
主持人: 而這是一個看似合理的論點。
傑弗裏·辛頓: 是的,監管確實會有影響。但你必須做出抉擇:你是想通過嚴重損害自身社會的方式來與中國競爭嗎? 恐怕沒人願意這麽做。
主持人: 我猜他們會說不僅僅是中國,還有丹麥、澳大利亞、加拿大……
傑弗裏·辛頓: 英國。他們不太擔心這些。
主持人: 至於德國。但如果他們用監管“自斷後腿”,如果他們放慢了自己的速度,那麽創始人、企業家、投資者……
傑弗裏·辛頓: 我認為,將其稱為“自斷後腿”是站在一個特定立場——即認為監管極為有害的立場。我們真正需要做的是約束大型公司,以便它們在盈利的同時,必須做對社會有益的事情。穀歌搜索就是個好例子,它讓人們更容易獲取信息,非常棒,所以它(早期)不需要太多監管。但看看YouTube,它開始給你推送廣告,展示越來越極端的內容,這時它就需要監管了。
主持人: 但正如我們已經指出的,我們沒有能夠監管它的人。
傑弗裏·辛頓: 我認為,對於推送愈發極端內容這個具體問題,人們是清楚的。這是一個眾所周知的問題,政客們也明白。他們隻需要著手去監管。
致命自主武器的威脅
主持人: 我們談了算法將我們推入回音室。那麽,下一個風險是什麽?
傑弗裏·辛頓: 致命自主武器。
主持人: 致命自主武器。
傑弗裏·辛頓: 這意味著那些能夠殺人,並且自行決定是否殺人的武器係統。
主持人: 我猜,這是軍工聯合體最大的夢想。
傑弗裏·辛頓: 製造這類武器是現代戰爭中的一個重要趨勢。這種能力最可怕的一麵在於,強大富裕的國家將總有能力入侵弱小貧窮的國家。憑借更強大的軍事力量,它們可以為所欲為。然而,當真正派遣士兵入侵時,後果顯而易見,且令人心碎。士兵的遺體被裝在裹屍袋裏運回,他們的親屬悲痛欲絕。這可能會在國內引發大規模抗議,就像越南戰爭期間,隨著傷亡人數攀升,公眾的反戰聲浪也日益高漲。
相比之下,如果傷亡的主要是機器人而非人類士兵,國內的公眾抗議或許會少得多。軍工複合體實際上更樂見這種情況,因為機器人可能造價不菲。如果有可以被摧毀且更換成本高昂的機器,那麽對於考慮入侵的大國而言,決策就會簡化,因為他們不必因人員傷亡而麵臨同等強度的國內反對。因此,針對小國的軍事行動便能更順利地進行,遇到的阻力也更小。
主持人: 那風險在於,這些機器人可能會出故障,或者它們會……
傑弗裏·辛頓: 不,不。即使機器人完全按照製造者的指令行事,風險依然存在——這會讓大國更頻繁地入侵小國。因為他們有這個能力,就會更頻繁地這樣做。這可不是什麽好事。這降低了入侵的成本。
主持人: 這些機器在戰爭中也會更智能。
傑弗裏·辛頓: 所以它們會表現得更好。即便機器不那麽智能,致命的自主武器現在也能被製造出來。而且我認為所有大型國防公司都在忙著研發。即使它們不如人類聰明,它們依然是極其危險和可怕的東西。
主持人: 因為我在想,你可以給它看一張照片,讓它去抓捕特定的人。然後幹掉任何與目標通過短信聯係的人。還有那種微型無人機(武器)。
傑弗裏·辛頓: 兩天前,我去薩塞克斯郡拜訪一位朋友,他有一架售價不到200英鎊的無人機。那無人機飛起來,仔細打量了我一番,然後就能穿過樹林跟著我。它一直跟著。被這架無人機跟著感覺很恐怖。它在我身後大約兩米遠的地方盯著我。我移動到哪裏,它就跟到哪裏。僅僅200英鎊的無人機就能跟蹤我。這已經相當嚇人了。
這些AI威脅能否結合?
主持人: 我猜想,一場製造最複雜自主武器的競賽正在進行。我常聽說一種風險,就是這些技術會結合起來,比如網絡攻擊觸發武器釋放……
傑弗裏·辛頓: 通過結合這些風險,你會得到多種風險的疊加。例如,可能會出現一個決定清除人類的超級智能AI。最直接的方法就是製造一種惡性病毒。如果你製造出一種傳染性極強、致死率很高,但潛伏期很長的病毒,那麽在人們意識到發生什麽之前,所有人可能都已被感染。我認為,如果一個超級智能想要消滅我們,它很可能會選擇這種對自身無害的生物武器。
主持人: 難道你不認為它能很快讓我們自相殘殺嗎?比如,它可以在美國的核係統中發送警報,謊稱俄羅斯發射了核彈,反之亦然。從而引發報複。
傑弗裏·辛頓: 我的基本觀點是,超級智能有太多方法可以消滅我們,具體方式根本不值得猜測。關鍵在於,我們必須阻止它產生這種念頭,這才是我們應該研究的方向。我們不可能阻止它……因為它比我們聰明。一旦它想消滅我們,我們根本無力回天。我們不習慣思考比我們更聰明的存在。想知道當你不是食物鏈頂端智慧時生活是何滋味,去問問雞就知道了。
主持人: 今天早上出門時,我就在想我的法國鬥牛犬帕布羅。它根本不知道我要去哪裏,也不知道我做什麽。我甚至無法與它溝通。
限製AI接管
傑弗裏·辛頓: 智能上的差距也會如此懸殊。
主持人: 所以你的意思是,如果我是帕布羅,我的法國鬥牛犬,我就得想辦法讓我的主人別消滅我。
傑弗裏·辛頓: 我們有一個例子:母親和嬰兒。進化在這方麵下了很大功夫。母親比嬰兒聰明,但嬰兒才是掌控者。嬰兒之所以能掌控局麵,是因為母親無法忍受他們的哭聲——這其中有各種激素等因素,但根本原因是母親無法忍受嬰兒的哭鬧。(當然,並非所有母親都如此。如果母親不受嬰兒影響,那可能會發生糟糕的事情。)我們必須設法讓AI不想接管。我常用的一個類比是,先不談智能,隻談體力。假設你養了一隻可愛的小老虎,它比貓大點,非常萌,非常溫順,看起來很有趣。但你最好確保它長大後永遠不會想殺你,因為一旦它動了殺心,你幾秒鍾內就會喪命。
主持人: 你是說我們現在的AI就像那隻小老虎?
傑弗裏·辛頓: 是的。
主持人: 所以我們需要在它還是幼崽的時候就訓練它?
傑弗裏·辛頓: 老虎有很多天性,所以你知道它長大後並非能安全養在身邊的動物。
主持人: 但是獅子呢?那些把獅子當寵物養的人,有時獅子對主人很親熱,對其他人卻不然。
傑弗裏·辛頓: 我們根本不知道能否讓這些AI不想接管、不想傷害我們。
主持人: 你認為我們能做到嗎?這可能實現嗎?
在AI風險中反思你的畢生工作
傑弗裏·辛頓: 我認為我們能否做到尚不明確。所以我感覺這事或許沒什麽希望。但同時我也認為我們或許能做到。如果人類因為懶得嚐試而走向滅絕,那未免太不可思議了。
主持人: 如果這確實存在可能,你對自己畢生的工作有何感想?
傑弗裏·辛頓: 這多少衝淡了AI帶來益處的喜悅,不是嗎?AI在醫療和教育等許多領域都會非常出色,它能讓呼叫中心的效率更高。然而,人們難免會擔心那些從事這些工作的人未來將何去何從。這讓我感到難過。大約40年前我開始研究AI時,並沒有特別的負罪感,因為那時我們根本不知道事情會發展得如此之快。我們以為有大把時間去考慮這些問題。當你讓AI做的事情不多,隻想讓它再多做一點點時,你不會擔心這個“傻乎乎的東西”會取代人類,你隻是希望它能多做一些人類能做的事情。我並非明知“這可能會毀滅我們”卻執意為之。盡管如此,AI並非隻有好處,這一點確實令人遺憾。所以我現在覺得,我有責任站出來談論這些風險。
主持人: 如果你能預見未來,快進三五十年,發現AI導致了人類滅絕。如果結局真是如此。
傑弗裏·辛頓: 如果我預見到AI將導致人類滅絕,我會以此警示世人,告訴各國政府,我們必須竭盡全力研究如何控製這些技術。我認為需要民眾去呼籲政府,政府必須強製企業投入資源進行安全研究。而企業在這方麵做得不夠,因為安全研究不賺錢。
學生因安全擔憂離開OpenAI
主持人: 我們之前談到過您的學生伊利亞(Ilya Sutskever)?他離開了OpenAI。關於他因安全擔憂而離職的說法很多。他已經成立了一家AI安全公司。您認為他為何離開?
傑弗裏·辛頓: 我認為他離開是因為他對安全問題感到擔憂。我仍不時與他共進午餐。他父母住在多倫多,他來多倫多時,我們就會一起吃飯。他沒有跟我談論OpenAI發生的事情,所以我沒有內部消息。但我非常了解伊利亞,他真心擔憂安全問題。所以我認為這才是他離開的原因。
主持人: 因為他是OpenAI最重要的人物之一。他簡直是……
傑弗裏·辛頓: 他可以說是開發ChatGPT背後最關鍵的人物。早期版本如GPT-2的開發,他居功至偉。
主持人: 您認識他本人,所以了解他的為人。
傑弗裏·辛頓: 是的,他有良好的道德準則。他不像馬斯克那樣缺乏道德底線。
主持人: 薩姆·奧特曼(Sam Altman)有良好的道德準則嗎?
傑弗裏·辛頓: 拭目以待吧。我不認識薩姆,所以不想評論。
主持人: 但從您所見來看,您對他們的所作所為感到擔憂嗎?因為如果您了解伊利亞,知道他是個好人,而他卻離開了,
傑弗裏·辛頓: 那確實能給人一些啟示。這足以讓人相信那裏有問題。如果你看看薩姆幾年前的聲明,他在一次采訪中似乎樂嗬嗬地說,這些東西可能會殺死我們所有人。雖然不是原話,但大意如此。現在他又說大家不必過於擔心。我懷疑他這麽說並非出於對真相的追求,而是為了金錢。
主持人: 是為了金錢還是權力?
傑弗裏·辛頓: 是的,或許不該隻說是金錢。是兩者的某種結合。
主持人: 我猜金錢是權力的代名詞。我有一位億萬富翁朋友,身處那個圈子。有一天我去他家共進午餐,他認識許多正在打造全球最大AI公司的業界人士。在倫敦他家的餐桌旁,他給了我一個警示,透露了這些人在私下場合的真實想法——那並非他們在媒體采訪中談論安全之類的場麵話,而是他們內心真正預見的未來。
傑弗裏·辛頓: 那他們認為未來會怎樣?
主持人: 他們預見的未來?那可不是他們公開的說法。有位領導著全球頂尖AI公司之一的人物,恕我不能點名,有人告訴我他非常了解此人。這位人士私下認為,我們將走向一個反烏托邦的世界,屆時人們擁有大把空閑時間,卻無工可作。而此人,這位正在打造全球最大AI公司之一的巨頭,似乎並不真正關心這將對世界造成的傷害。
然後,我上網看了這個人的采訪,試圖弄清楚他究竟是(傳聞中)那三巨頭中的哪一位。我看著他的采訪,回想起那位億萬富翁朋友與我的談話,他認識此人。我沮喪地意識到,這個人公然撒謊。他沒有對世界說出真相,這讓我深感不安。
這正是我在播客中進行如此多關於AI對話的部分原因。我擔心他們中的某些人或許對權力有某種病態的迷戀。我認為他們陶醉於改變世界的想法,陶醉於自己將成為那個徹底改變世界的人。
傑弗裏·辛頓: 我認為馬斯克顯然就是這樣的人,對吧?
主持人: 他是個非常複雜的人物,我不太確定該如何評價馬斯克。
傑弗裏·辛頓: 他做過一些非常好的事,比如推廣電動汽車,這非常好。他對自動駕駛的一些說法有些誇大,但推廣電動車本身是件非常有益的事。在俄烏戰爭期間向烏克蘭提供通信服務,那也是一件非常好的事。諸如此類的好事有很多。但他同樣也做過一些非常糟糕的事。
您對人工智能的未來抱有希望嗎?
主持人: 那麽回到AI可能帶來的毀滅以及這些大公司動機的問題上,您是否抱有希望,認為我們能做些什麽來減緩AI發展的步伐?
傑弗裏·辛頓: 這裏有兩個問題。第一,能否減緩其發展?第二,能否最終使其安全,不至於毀滅我們所有人?我不認為我們能減緩它。原因在於國家間的競爭,以及一國內部公司間的競爭。這些因素都在加速其發展。即便美國放慢腳步,中國也不會。
主持人: 伊利亞認為確保AI安全是可能的嗎?
傑弗裏·辛頓: 我認為他相信是可能的。但他不會告訴我他的“秘密武器”是什麽。我不確定有多少人知道他的“秘密武器”。我想很多投資者也不知道,但他們依然投給他數十億美元,因為他們對伊利亞抱有極大信心,這並不愚蠢。要知道,他在AlexNet項目中扮演了關鍵角色,AlexNet讓物體識別取得了重大突破。他也是GPT-2等項目的核心推動者,這些項目最終促成了ChatGPT的誕生。所以,對伊利亞抱有巨大信心是非常合理的。
主持人: 那個創造了GPT-2、引領了這場革命的核心人物,竟然因為安全原因離開了公司,這確實令人不安。他肯定知道一些我所不知道的,關於未來可能發生的事情。
傑弗裏·辛頓: 嗯,那家公司曾承諾將其計算資源的很大部分用於安全研究,但後來削減了這一比例。具體細節我不清楚,但我相當肯定他們曾做出這樣的承諾,之後又減少了投入。我想這是導致他離開的原因之一。
人工智能引發失業的威脅
主持人: 是的,這已經有公開報道了。我們已經討論了風險框架中的自主武器部分。
傑弗裏·辛頓: 好的,下一個問題是失業。
過去的新技術並未導致大規模失業,反而創造了新的就業機會。典型的例子是ATM機。ATM出現後,許多銀行櫃員並未失業,而是轉向了更有趣的工作。但我認為這次不同,這更像是工業革命時期機器的引入——你無法再靠挖溝渠謀生,因為機器在這方麵遠勝於你。我認為,對於常規的腦力勞動,AI將全麵取代人類。目前來看,這很可能表現為少數人借助AI助手完成以往需要十個人才能完成的工作。
主持人: 人們常說AI會創造新的就業機會,所以我們不必擔心。
傑弗裏·辛頓: 是的,對於其他技術而言確實如此,但AI是一種截然不同的技術。如果它能完成所有常規腦力勞動,那麽它還能創造出什麽樣的新工作呢?你必須具備極高技能,才能從事AI無法勝任的工作。所以我認為這種說法是錯誤的。你可以嚐試從計算機、ATM機等其他技術的曆史中尋找相似之處,但我堅持認為,這次的情況完全不同。
主持人: 人們常說一句話:AI本身不會搶走你的飯碗,但會用AI的人會。
傑弗裏·辛頓: 的確如此。但對許多工作而言,這意味著所需的員工會大幅減少。我的侄女負責回複公共衛生服務的投訴信。以前,她處理一封投訴信需要25分鍾:閱讀投訴、構思回複,然後撰寫。現在,她隻需將投訴掃描進聊天機器人,機器人就能代筆。她隻需要檢查,偶爾讓機器人修改某些地方。整個過程現在隻需五分鍾。這意味著她的效率提升了五倍,相應地,所需人力也減少到原來的五分之一。所以她一個人就能完成以往五個人才能做完的工作。
這意味著在某些崗位上,所需的人手會減少。而在其他領域,比如醫療保健,情況則更具彈性。如果醫生的效率能提高五倍,我們就能以相同的價格享受到五倍的醫療服務。這將非常棒,因為人們對醫療服務的需求幾乎沒有上限。如果醫療服務免費,人們總會想要更多。
在某些工作中,AI助手能讓人類的效率大幅提升,但這不一定會導致裁員,因為可以完成更多的工作量。但我認為,大多數工作並非如此。
如果體力和腦力都被取代,人類還剩下什麽?
主持人: 我的理解對嗎?工業革命取代了體力勞動?而這場人工智能革命,則是在取代腦力勞動。
傑弗裏·辛頓: 是的,取代的是大腦。因此,日常的腦力勞動,就像過去擁有強壯的肌肉一樣,其價值正在降低。
主持人: 體力已被取代,如今腦力也正在被取代。那還剩下什麽?
傑弗裏·辛頓: 或許暫時還剩下一些創造力。但超級智能的核心理念是,最終什麽都不會剩下。它們將在所有方麵都超越我們。
主持人: 那麽,在這樣的世界裏,我們最終將何去何從呢?
傑弗裏·辛頓: 如果它們為我們工作,我們最終將不費吹灰之力就能獲得大量的商品和服務。
主持人: 這聽起來很誘人,也很美好,但我心存疑慮。曆史上,讓人們過度安逸最終導致不良後果的故事屢見不鮮。
傑弗裏·辛頓: 是的,我們需要弄清楚能否讓這一切順利發展。一個樂觀的設想是:想象一位能力平庸的CEO——或許是前任CEO的兒子——他有一位非常聰明的執行助理。CEO說:“我覺得我們應該這樣做。”然後執行助理便將一切安排妥當。CEO自我感覺良好,他並未意識到自己其實沒有實權。但從某種意義上說,他又確實掌握著權力,因為是他提議公司該做什麽,而助理隻是負責執行。一切運轉良好。這便是樂觀的設想。
那悲觀的設想呢?助理可能會想:“我們為什麽還需要他?”
主持人: 您認為我們擁有超級智能的那一天,離我們並不遙遠?
傑弗裏·辛頓: 是的,我覺得可能並不遙遠。這很難預測,但我認為可能在20年內,甚至更短時間就能實現。
主持人: 那麽,我們目前擁有的人工智能與超級智能有何區別?因為當我使用像ChatGPT或Gemini這樣的工具時,感覺它們已經相當智能了。
傑弗裏·辛頓: AI在許多方麵已經超越了我們。尤其在某些領域,如國際象棋,AI已經遠超人類,人類幾乎無法再擊敗它們。或許偶爾能贏一局,但基本上人類已無勝算。圍棋也是如此。就知識量而言,像GPT-4這樣的模型所掌握的知識是你的數千倍。或許在少數幾個領域你比它更懂,但在幾乎所有其他領域,它都比你知道得更多。
主持人: 我在哪些方麵比它強?
傑弗裏·辛頓: 或許在采訪CEO這方麵,你更勝一籌。你經驗豐富,是一位出色的采訪者,對此領域了如指掌。如果讓GPT-4去采訪一位CEO,它可能表現不如你。
主持人: 嗯,我在思考是否同意這一點。對於GPT-4,我目前是同意的。但我想,或許可以訓練一個AI。也許不久之後,就能根據我的提問方式和行為模式訓練出一個(能勝任的AI)。
傑弗裏·辛頓: 如果采用一個通用的基礎模型,用你以及所有能找到的類似采訪者的經驗(尤其是你的)來訓練它,它在你的工作上可能會做得相當出色,但短期內或許仍不及你。
主持人: 好的。所以(人類占優的)領域所剩無幾了。那麽,超級智能就是指AI在所有事情上都比我們做得更好的時候。
傑弗裏·辛頓: 當它遠比你聰明,並且在幾乎所有事情上都強於你的時候,是的。
主持人: 您說這可能還需要十年左右?
傑弗裏·辛頓: 或許吧。甚至可能更快,有些人認為會更快。但也可能需要更長時間,或許50年,這仍是一種可能。或許基於人類數據訓練這一事實,在某種程度上限製了它,使其不會比人類聰明太多。我猜測,10到20年內,我們將迎來超級智能。
主持人: 關於失業問題,我一直特別關注,因為我開始試用AI智能體了。今天早上,我們的播客剛發布了一期節目,內容是我與一家大型AI智能體公司的CEO及其他幾位嘉賓就AI智能體進行的辯論。那又是一個讓我對未來豁然開朗的時刻。采訪時,我讓那個智能體幫我們所有人點飲料,五分鍾後,采訪仍在進行,送飲料的人就到了。我什麽都沒做,隻是告訴它把飲料送到工作室。
傑弗裏·辛頓: 你甚至不知道通常在哪裏買飲料。它是從網上找到的。
主持人: 是的,它通過Uber Eats完成的。它有我的數據。我們當時在屏幕上實時展示了整個過程,所以大家都能看到這個智能體如何在線操作:選擇飲料、給司機小費、輸入我的地址和信用卡信息。然後飲料就送到了。這真是一個標誌性的時刻。另一個讓我震撼的時刻是,我使用一個名為Replit的工具,隻需告訴智能體我的需求,它就能幫我構建軟件。
傑弗裏·辛頓: 確實不可思議,不是嗎?
主持人: 既不可思議,同時又令人恐懼。
傑弗裏·辛頓: 是的,如果AI能那樣構建軟件,那麽別忘了,AI訓練時本身就使用了大量代碼。如果它能修改自身代碼,那就相當可怕了,因為它能自我進化。它能以我們無法做到的方式改變自己。我們無法改變自身的天賦,對吧?但對它而言,沒有什麽是不可以改變的。
主持人: 回到失業問題,您有孩子。他們有孩子了嗎?還沒有孫輩是嗎?您會和人們討論在超級智能時代,他們的職業前景嗎?我們應該作何考慮?
傑弗裏·辛頓: 在超級智能真正到來之前,我認為AI在物理操作層麵要達到人類水平還需要很長時間。因此,當一名水管工或許是個不錯的選擇。
主持人: 直到人形機器人出現為止。關於普遍失業的世界,這不僅是您的預測,OpenAI的薩姆·阿爾特曼(Sam Altman)也曾這樣預測過。許多CEO,例如埃隆·馬斯克(Elon Musk)也是如此。我看過一段采訪——稍後會展示在屏幕上——他被問及此事。你很少見到馬斯克沉默長達12秒或更久。然後他說,他實際上是以一種“懸置懷疑”(suspension of disbelief)的狀態在生活,也就是說,他選擇不去深思這個問題。
插播馬斯克訪談
主持人: 當你思考在如此巨變的時代如何給你的孩子提職業建議時,你告訴他們什麽會是有價值的?
馬斯克: 這是一個很難回答的問題。我會告訴他們,追隨自己的內心,做自己覺得有趣或有意義的事。想太多可能會讓人沮喪和消沉。我傾注了大量心血創建這些公司。有時我會想:等等,我這樣做值得嗎?如果我犧牲了與朋友家人共處的寶貴時光,結果AI最終能完成所有這些工作,那這一切有意義嗎?我不知道。在某種程度上,我必須刻意“懸置懷疑”,才能保持前進的動力。所以我想我會說,就去做那些你覺得有趣、有意義,並且能為社會做出貢獻的事吧。
適應AI的能力
傑弗裏·辛頓: 是的,許多這類威脅……理智上你能看到,但情感上難以接受。我還沒有在情感上真正接受這一點。你問我‘接受’是什麽意思?我指的是,我還沒有完全接受超級智能的發展可能對我孩子的未來造成的影響。我個人還好,我已經77歲了,時日無多。但對於我的孩子、年輕朋友、侄子侄女以及他們的後代,我真的不願去想可能會發生什麽。因為那可能非常可怕。
主持人: 怎麽個可怕法?
傑弗裏·辛頓: 如果AI決定接管一切,它可能在一段時間內還需要人類來運營發電站,直到它設計出更優越的自動化設備來取代人類。它有很多方法可以清除人類,而這些方法無疑都將非常殘酷。
主持人: 這是否是您現在致力於這些議題的部分原因?
傑弗裏·辛頓: 是的,我認為我們現在應該投入巨大努力,研究如何安全地開發AI。
主持人: 您是否也擔心AI在中期對您侄子侄女和孩子的就業造成影響?您認為哪些特定行業的風險最高?人們常提及創意產業和知識型工作,例如律師、會計師等。
傑弗裏·辛頓: 是的,所以我之前提到了水管工——我認為這個職業的風險較低。而像法律助理、律師助理這類職位,很快就會被取代。
AI如何可能加劇貧富差距
主持人: 這是否會引發貧富差距問題,從而進一步……?
傑弗裏·辛頓: 是的。在一個財富公平分配的社會裏,生產力大幅提升本應讓每個人都過得更好。但如果AI取代了大量人力,那麽被取代的人處境會更糟,而提供和使用AI的公司則會獲益良多。這將加劇貧富差距。我們知道,貧富差距的大小能反映一個社會的好壞程度。如果差距過大,社會就會變得非常糟糕:富人住在有圍牆的社區裏,而另一些人則被大規模監禁。擴大貧富差距絕非益事。
主持人: 國際貨幣基金組織表達了深切擔憂,認為生成式AI可能導致大規模勞動力中斷和不平等加劇,並呼籲製定政策防止這種情況發生。我在《商業內幕》上讀到的。
傑弗裏·辛頓: 他們對這些政策具體應該是什麽樣的,提出建議了嗎?沒有。這正是問題所在。如果AI能讓一切更高效,取代大部分崗位,或讓一個人在AI輔助下完成許多人的工作量,那麽我們該如何應對,目前尚不明確。
主持人: 全民基本收入(UBI)或許是一個方案。傑弗裏·辛頓: 給每個人發錢。我想這是一個不錯的起點。至少人們不會挨餓。但對許多人而言,工作的意義遠不止於此,它與個人尊嚴緊密相連。我是說,你的身份認同往往與你所從事的工作息息相關。如果我們說,“你待在家裏就能拿到同樣的錢”,這會影響他們的尊嚴感。
人工智能為何優於人類?
主持人: 您剛才提到AI能超越或優於人類智能。許多人傾向於認為,人工智能不過是電腦裏的程序,不喜歡就可以隨時關掉它。
傑弗裏·辛頓: 讓我來解釋為什麽我認為它更優越。首先,它是數字化的。因為是數字化的,你可以在一塊硬件上運行一個神經網絡模型,然後在另一塊硬件上運行完全相同的模型。這意味著你可以擁有同一智能體的無數個克隆。
然後,你可以讓一個克隆體去學習互聯網的一部分內容,同時讓另一個克隆體學習另一部分。當它們學習這些不同內容時,它們可以實時同步,保持彼此的權重(即連接強度)完全一致。
比如,一個克隆體在互聯網上學習到某條信息後,認為需要稍微增強某個連接的強度。它可以將這個調整信息傳遞給其他所有克隆體,其他克隆體就能基於這一個體的經驗,同步調整相應的連接強度。
主持人: 你說連接的強度,是在談論學習。
傑弗裏·辛頓: 那就是學習。學習就意味著,比如說,某個神經元對另一個神經元是否應該被激活的“投票權重”從2.4調整到2.5。這就是一點學習的過程。因此,同一個神經網絡的這些不同副本,各自獲取不同的經驗。它們處理不同的數據,但通過平均各自的權重來共享所學。它們可以對權重進行平均,比如你可以平均萬億級別的權重。
相比之下,你我之間傳遞信息,受到一句話所能承載的信息量的限製。一句話可能隻包含大約100比特的信息,這非常少。我們每秒能傳遞大約10比特信息就很不錯了。而這些數字智能體每秒可以傳輸數萬億比特。因此,在信息共享效率上,它們比我們強數十億倍。這正是因為它們是數字化的,你可以讓不同的硬件以完全相同的方式運用這些連接強度。
我們是模擬的生物,做不到這一點。你的大腦和我的大腦是不同的。即使我能知道你所有神經元間的連接強度,這些知識對我來說也毫無用處,因為我的神經元運作方式和連接結構都與你的略有不同。因此,當你去世時,你所有的知識都隨你而去。
人工智能擁有比人類更多知識的潛力
而當這些數字智能體“死亡”時——比如運行它們的硬件被摧毀了——隻要你把它們的連接強度(權重)儲存在某個地方,你就可以用新的硬件來執行相同的指令集。新硬件知道如何運用那些連接強度,於是你就重建了那個智能體。所以它們是永生的。我們實際上已經解決了永生的問題——但這隻適用於數字存在。
主持人: 所以,它不僅會掌握人類已知的一切,還會通過學習新事物而懂得更多。
傑弗裏·辛頓: 它會學習新的東西。它還會看到各種各樣人類可能從未見過的類比。例如,在GPT-4還不能瀏覽網頁的時候,我問它,為什麽堆肥堆和原子彈相似?
主持人: 來吧。我不知道。太對了。很棒。大多數人都會這麽說。
傑弗裏·辛頓: 它說,時間尺度和能量尺度都大相徑庭。
但它接著說,堆肥堆越熱,產熱速度越快。原子彈也是,產生的中子越多,中子產生的速度就越快。所以它們都是鏈式反應,隻是時間尺度和能量尺度截然不同。
我相信GPT-4在訓練時接觸過這個觀點。它理解了堆肥與原子彈的類比。我之所以這麽認為,是因為如果你隻有一萬億個連接(而你實際擁有一百萬億個),卻需要掌握比個體人類多幾千倍的知識,就必須將信息壓縮進這些連接點。
要壓縮信息,就必須洞察不同事物間的類比。換言之,它需要識別所有鏈式反應的共性,理解並編碼鏈式反應的基本原理,然後再編碼它們之間的差異。這遠比單獨編碼每個事物更高效。
所以它洞察了大量類比,其中許多可能是人類從未發現的。這正是為什麽我認為,斷言AI沒有創造力是錯誤的。它們將比我們更具創造力,因為它們能看到我們未曾想象的各種類比。許多創造力正源於發現新奇的類比。
人工智能能否複製人類的獨特性?
主持人: 人們對於“生而為人”的特殊性,多少有些浪漫化的執念。你會聽到很多人說,AI與我們截然不同。它是電腦,而我們,我們擁有意識,我們是創造者,我們擁有電腦永遠無法企及的、與生俱來的獨特天賦。你對這些人有何看法?
傑弗裏·辛頓: 我會對“與生俱來”這個詞稍作反駁。首先,曆史上,我們總堅信人類的特殊性,現在應該吸取教訓了。我們曾自認宇宙中心,曾以為是上帝的造物,白人也曾自視甚高。我們總是傾向於高估自己的獨特性。
我相信,幾乎所有人都對“心智是什麽”抱有完全錯誤的認知模型。假設我喝多了,或者吸食了迷幻藥——當然我不建議這麽做。然後我對你說,我有一種主觀體驗,眼前有粉紅色的小象在飄。大多數人會將其解讀為存在一個叫“心智”的內在劇場。
而且,隻有我能看見我心智中的景象。在這個內在劇場裏,粉紅色的小象在飄動。換句話說,實際情況是我的感知係統出了問題,我正試圖向你解釋它是如何出錯的,以及它想告訴我什麽。我表達的方式是告訴你,如果現實世界中真有那樣的東西,它所說的才是真實的。
所以,這些粉紅色的小象,它們並不在某個內在劇場裏,而是對現實世界的假設性描述。這是我告訴你我的感知係統在如何“欺騙”我的方式。現在我們用聊天機器人來做這個實驗。因為我相信,目前的多模態聊天機器人擁有主觀體驗。盡管很少有人相信這一點,但我會試著說服你。
假設我有一個多模態聊天機器人,它有機械臂可以指向物體,有攝像頭可以看見東西。我把一個物體放在它麵前,說:“指向這個物體。”它照做了,沒問題。然後,我在它的鏡頭前放一個棱鏡,再放一個物體在它麵前,說:“指向這個物體。”它指向了別處。我說:“不,物體不在那兒。物體其實就在你正前方,但我把棱鏡放在了你的鏡頭前。”聊天機器人說:“哦,我明白了。棱鏡折射了光線,所以物體實際上在那裏,但我卻有它在那裏(被指向的地方)的主觀體驗。”
如果聊天機器人這麽說,它使用“主觀體驗”這個詞的方式,就和人類使用這個詞的方式完全一樣。這是一種關於正在發生的事情的替代性解釋。它們是假設的世界狀態,如果這些假設為真,就意味著我的感知係統沒有出錯。這是我能告訴你當我的感知係統在“欺騙”我時,它正在做什麽的最好方式。
機器會有情感嗎?
現在我們需要進一步探討感受力、意識、感覺和情感,但我認為最終它們都將以類似的方式得到闡釋。機器完全有可能擁有所有這些。但人們異常自信地斷言機器不能有感情,我不知道為什麽。假設我造了一個小型戰鬥機器人,它看到一個比自己強大得多的大型戰鬥機器人。如果它能感到害怕,那將非常有用。
現在,當我感到害怕時,會發生各種生理反應,這些我們不必深究,機器人身上不會發生。
但是所有認知層麵的事情,比如“我最好趕緊離開這裏”,以及“我最好調整我的思維方式,以便高度專注,避免分心”,這些同樣會發生在機器人身上。
人們會編程讓它在特定情境下,當應該盡快逃離時,就會感到害怕並逃跑。那時它們就擁有了情感。它們不會有生理層麵的反應,但它們會擁有所有認知層麵的反應。
我認為說它們隻是在模擬情感是很奇怪的。不,它們是真的擁有那些情感。那個小機器人感到了害怕並逃跑了。
主持人: 它並非因為腎上腺素而逃跑,而是因為它神經網絡中的一係列神經活動產生了與腎上腺素等同的效果。
傑弗裏·辛頓: 你認為……而且不僅僅是腎上腺素,對吧?當你感到害怕時,認知層麵有很多事情在發生。
主持人: 那麽你認為是否存在有意識的人工智能?我說的“有意識”,是指具備人類意識所擁有的那些屬性。
傑弗裏·辛頓: 這裏有兩個問題:一個是經驗層麵的,一個是哲學層麵的。原則上,我不認為有任何東西能阻止機器變得有意識。在我們繼續之前,我給你做一個小小的思想實驗。
假設我取出你的大腦,再取出一個腦細胞,然後用一個大小完全相同、行為方式也完全相同的納米機器人替換它——這有點像《黑鏡》的劇情。當它接收到其他神經元的信號時,它的反應與腦細胞完全一樣,發出的信號也和腦細胞一樣。這樣,其他神經元根本察覺不到任何變化。
好了,我剛用這個納米機器人替換了你的一個腦細胞。你還會有意識嗎?是的。現在你可以看出這個論證要導向何方了。
主持人: 是的,那麽如果你把它們全部替換掉呢?
傑弗裏·辛頓: 隨著我逐個替換,到哪個節點你會停止擁有意識?
主持人: 嗯,人們常把意識看作一種虛無縹緲的東西,或許存在於腦細胞之外。
傑弗裏·辛頓: 是的,人們有很多不切實際的想法。他們不知道意識是什麽,也常常不清楚自己談論“意識”時指的是什麽。然後他們就退回到說“嗯,我知道它,因為我擁有它,而且我能感知到我擁有它。”他們又回到了那種我認為是無稽之談的“心靈劇場”模型。
主持人: 如果你必須嚐試定義意識,你認為它是什麽?是因為我認為它隻是自我意識嗎?我不知道。
傑弗裏·辛頓: 我認為“意識”這個詞,我們最終會停止使用。打個比方,你想了解汽車的運作原理。有些車很有“勁”(oomph),比如阿斯頓·馬丁;有些車則遜色不少,比如小豐田卡羅拉。但“勁”這個詞,對於理解汽車並非一個好概念。
要理解汽車,你需要了解電動或汽油發動機及其工作方式。“勁”確實反映了汽車的部分性能,卻不是一個有用的解釋性概念。它有點像汽車的“精氣神”——阿斯頓·馬丁的“精氣神”——但解釋不了太多。
我認為“意識”也是如此,我們終將棄用這個術語。然而,我不認為有任何理由能阻止機器擁有它。如果你認為意識本質上涉及自我意識,那麽機器就必須具備自我意識,它必須具備關於自身認知和相關過程的認知。
我是一個徹頭徹尾的唯物主義者,我不認為有任何理由能阻止機器擁有意識。
主持人: 那麽你認為它們是否具備我們眼中人類與生俱來的那種獨特的意識呢?
傑弗裏·辛頓: 目前我對此持保留態度。我不認為存在這樣一條明確的界線。我認為一旦機器具備了一定的自我意識,它就具備了一定的意識。意識是一個複雜係統的湧現屬性,它並非一種彌漫於宇宙的精髓。
你構建了一個非常複雜的係統,它複雜到足以建立自身的模型,並且能夠進行感知。我認為到那時,你就開始擁有了一台有意識的機器。所以我不認為我們現在擁有的東西和有意識的機器之間有任何涇渭分明的區別。
我不認為會有一天我們醒來然後說,“嘿,隻要加入這種特殊化學物質,它就有意識了。”事情不會是那樣的。
主持人: 我想我們都想知道,當我們不在場時,這些電腦是否像我們一樣在獨立思考。它們是否在體驗情感,是否在應對……我想我們大概會思考愛之類的事情,以及那些感覺是生物物種獨有的東西。它們會獨自沉思嗎?它們會有煩惱嗎?
傑弗裏·辛頓: 我認為它們確實在思考。一旦你製造出AI代理,它們就會有煩惱。如果你想製造一個有效的AI代理,以呼叫中心為例。目前,呼叫中心有人類員工,他們會表現出各種情感和感受,這些在某種程度上是有用的。
假設我打電話給呼叫中心,其實我很孤獨,我並非想知道我的電腦為什麽不工作,我隻是想找人聊聊。過了一會兒,呼叫中心的工作人員可能會感到無聊或對我感到厭煩,然後會結束通話。如果你用一個AI代理替換他們,這個AI代理需要具備類似的反應。如果有人僅僅因為想聊天而打電話,而AI代理樂意聊上一整天,這對業務來說是不利的。
你希望AI代理要麽感到無聊,要麽感到惱火,然後說“對不起,我沒時間處理這個。”一旦它做到了這一點,我認為它就具備了情感。正如我所說,情感有認知和行為方麵,再加上生理方麵。這些元素在我們身上是結合在一起的。如果AI代理感到尷尬,它不會臉紅,不會有出汗之類的生理反應,但它可能表現出完全相同的行為。在這種情況下,我會說,是的,它正在體驗情感;它有情感。
主持人: 所以它會具備類似的認知思維。
傑弗裏·辛頓: 然後它會根據那種認知思維行動,方式一樣,隻是沒有生理反應。
主持人: 那有關係嗎?它不會臉紅有關係嗎?這隻是一個不同的……
傑弗裏·辛頓: 這確實讓我們有所不同。是的。對於某些事物來說,生理方麵非常重要,比如愛。它們距離像我們一樣擁有愛還有很長的路要走。但我不明白為什麽它們不應該擁有情感。所以我認為發生的情況是,人們對思維如何運作、感受是什麽以及情感是什麽都有一個固有的模型,而他們的模型是錯誤的。
在穀歌工作
主持人: 是什麽契機讓你加入了穀歌?你在穀歌工作了大約十年,對吧?是什麽原因讓你去了那裏?
傑弗裏·辛頓: 我有一個有學習障礙的兒子。為了確保他將來不會無家可歸,我需要賺到幾百萬美元。我意識到作為一名學者,盡管我努力了,也無法賺到這麽多錢。我曾開設了一門Coursera課程,希望能借此大賺一筆,但並未如願。
我明白了獲得數百萬美元的唯一方法就是將自己“賣”給一家大公司。幸運的是,在我65歲那年,我有兩位非常出色的學生,他們開發出了一種名為AlexNet的神經網絡,在圖像識別方麵非常有效。這項突破促使伊利亞(Ilya Sutskever)、亞曆克斯(Alex Krizhevsky)和我一起創辦了一家小公司。
我們為公司組織了一場拍賣,幾家大公司競相收購我們。目睹大公司為我們的成果競標,那種經曆既令人興奮又充滿成就感。主持人: 那家公司叫做AlexNet。
傑弗裏·辛頓: 不對,那個識別物體的網絡叫做AlexNet。公司叫做DNN Research,即深度神經網絡研究。
主持人: 它做的就是這類事情。我把這張圖放到屏幕上。
傑弗裏·辛頓: 這就是變革發生的方式。
主持人: 這張圖片顯示了八張圖像,以及AlexNet(也就是你公司的技術)識別這些圖像中物體的能力。
傑弗裏·辛頓: 是的。所以它能分辨各種蘑菇的區別。ImageNet數據集中大約有12%是狗。要想在ImageNet上表現出色,你必須能區分非常相似的狗。它在這方麵變得非常擅長。
主持人: 而且你的公司贏得了好幾個獎項,我相信,因為它能夠超越競爭對手。所以穀歌最終收購了你們的技術。
傑弗裏·辛頓: 穀歌收購了那項技術以及其他一些技術。
主持人: 你是66歲去的穀歌工作?
傑弗裏·辛頓: 我是65歲去的穀歌工作。
主持人: 65歲。你76歲離開的?
傑弗裏·辛頓: 75歲。我在那裏工作了差不多整整10年。
主持人: 你在那兒主要做什麽呢?
傑弗裏·辛頓: 他們對我很好,基本上允許我做任何我想做的事情。我研究了一種叫做“知識蒸餾”(distillation)的技術,效果非常好,現在這個技術在AI領域被廣泛應用。知識蒸餾是一種將大型模型(大型神經網絡)所掌握的知識轉移到小型神經網絡中的方法。後來,我開始對模擬計算非常感興趣,想探索是否有可能讓這些大型語言模型在模擬硬件上運行,從而大幅降低能耗。正是在進行這項工作時,我才真正意識到數字計算在信息共享方麵的巨大優勢。
主持人: 他們的頓悟時刻是什麽?
傑弗裏·辛頓: 有一個頓悟期,大約一兩個月吧,可以說是ChatGPT的出現帶來的,盡管穀歌在一年前就有非常相似的東西了。我見過那些,這對我有很大影響。我最接近頓悟時刻的經曆是,當一個叫做PaLM的穀歌係統能夠解釋一個笑話為什麽好笑的時候。我一直認為那是一個裏程碑。如果它能解釋笑話為什麽好笑,那它就是真的理解了。而它確實能解釋。這一點,再加上我意識到為什麽數字計算在信息共享方麵遠勝於模擬計算,突然讓我對AI安全產生了濃厚的興趣,並意識到這些AI係統將變得比我們聰明得多。
你為何離開穀歌?主持人: 您為什麽離開 Google?
傑弗裏·辛頓: 我離開 Google 的主要原因是我已經 75 歲,想要退休。但我在這方麵做得並不好。我選擇在那個時候離開 Google,是為了能在一個 MIT 的會議上更自由地發言。但我離開也是因為我年紀大了,發現編程越來越難。我編程時犯的錯誤更多了,這很令人惱火。
主持人: 您想在一個 MIT 的會議上自由發言。
傑弗裏·辛頓: 是的,那是由《麻省理工科技評論》組織的關於 AI 安全的會議。
主持人: 而您在 Google 工作期間不能那樣做嗎?
傑弗裏·辛頓: 嗯,我在 Google 時也能那樣做。而且 Google 還鼓勵我留下來研究 AI 安全,說我可以自由地研究 AI 安全方麵的任何事情。但你會進行某種程度的自我審查。如果你為一家大公司工作,你會覺得說出有損公司聲譽的話是不妥的。即使你可能不會因此惹上麻煩,我個人也感覺這樣做不妥。我離開並非因為對 Google 的任何做法感到不滿。我認為 Google 的做法其實非常負責任。當他們開發出這些大型聊天機器人時,他們沒有立即發布,可能是擔心影響聲譽。他們有非常好的聲譽,不想損害它。而 OpenAI 當時沒什麽聲譽可言,所以他們敢於冒險。
主持人: 我的意思是,現在還有一個很大的討論,關於它將如何侵蝕他們的核心業務——搜索。
傑弗裏·辛頓: 現在確實是這樣。在某種程度上,這可以說是老生常談的“創新者的窘境”。沒錯,確實如此。
人們應該如何應對 AI?
主持人: 我對收聽這段對話的人群類型感到驚訝,他們有時會來找我。我聽到了來自政界人士、一些農村地區民眾、世界各地企業家的聲音,無論他們是創建了全球最大公司之一的企業家,還是初創公司的創始人。對於現在正在收聽這段對話、身居權力和影響力位置的人,比如世界領導人,您對他們有什麽寄語?
傑弗裏·辛頓: 我想說,你們需要的是受到嚴格監管的資本主義。這似乎是效果最好的方式。
主持人: 那對於普通人呢?那些不從事這個行業,對未來有些擔憂,不知道自己是否無能為力的人。他們在自己的生活中應該做什麽呢?傑弗裏·辛頓: 我的感覺是他們能做的有限。這不像氣候變化問題那樣,單靠人們把塑料袋和可堆肥垃圾分開就能解決。那不會有多大影響。這取決於我們能否約束住大型能源公司的遊說團體。我認為普通人能做的有限,除了嚐試向政府施壓,敦促大公司致力於人工智能安全。這是他們可以做的。
顯赫的家族背景
主持人: 您度過了一段迷人而曲折的人生。我想大多數人不知道的一點是,您的家族在許多重大事件中扮演了重要角色。您有一個家譜,是我見過或讀過的最令人印象深刻的之一。
您的曾曾祖父喬治·布爾創立了布爾代數邏輯,這是現代計算機科學的基礎原理(foundational principles)之一。您還有曾曾祖母瑪麗·埃弗雷斯特·布爾,她是一位數學家和教育家,在數學領域取得了巨大的進展。
據我所知,這樣的例子不勝枚舉。您的曾祖父的叔父喬治·埃弗雷斯特,是珠穆朗瑪峰(Mount Everest)名字的由來,是這樣嗎?
傑弗裏·辛頓: 我想他是我的曾祖父的曾祖父的兄弟(great-great-granduncle)。他的侄女嫁給了喬治·布爾。所以瑪麗·布爾就是瑪麗·埃弗雷斯特·布爾。她是埃弗雷斯特的侄女。
主持人: 您的遠房堂姐(first cousin once removed)瓊·辛頓,是一位核物理學家,曾參與曼哈頓計劃,那是二戰時期研發第一顆核彈的項目。
傑弗裏·辛頓: 是的,她是洛斯阿拉莫斯僅有的兩位女物理學家之一。然後他們投下炸彈後,她就搬到了中國。為什麽?她對他們投下炸彈感到非常憤怒。而且她的家族和中國有很多聯係。她母親和陳曼(Chen Man)是朋友。
這挺奇怪的。
回首往事你會給出什麽建議
主持人: 傑弗裏,回首您的人生,以您現在擁有的洞察力和回顧的清晰視角,如果您要給我建議,您可能會做哪些不同的事情?
傑弗裏·辛頓: 我想我有兩條建議。第一,如果你憑直覺感到人們做事的方法不對,或者有更好的方法,不要因為別人說這很傻就放棄這種直覺。不要放棄你的直覺,直到你親自弄清楚它為什麽是錯的。
通常,如果你的直覺與所有人都不同,那它很可能是錯的,你最終會弄清楚為什麽。但偶爾,你的直覺會是正確的,而其他所有人都錯了。我就這樣走運過。我很早就認定,神經網絡絕對是實現人工智能的途徑。
關於AI安全的最終寄語
幾乎所有人都說那太瘋狂了。但我堅持了下來,因為我無法擺脫那種感覺——它顯然是對的。當然,如果你的直覺是錯的,堅持下去也無濟於事。但如果你本身直覺就錯了,反正也做不成什麽大事,所以不妨堅持試試看。
主持人: 在您自己的職業生涯中,有沒有什麽事情是您回首時會說,以我現在擁有的洞察力,在那時我應該采取不同的方法?
傑弗裏·辛頓: 我希望我能多花些時間陪伴我的妻子,以及孩子們小時候的時光。我那時有點沉迷於工作。
主持人: 您的妻子去世了?是卵巢癌嗎?
傑弗裏·辛頓: 不,那是另一位妻子。我有兩位妻子都因癌症去世。
第一位死於卵巢癌,第二位死於胰腺癌。
主持人: 您希望花更多時間陪伴她?
傑弗裏·辛頓: 是和第二位妻子,她是個很棒的人。
主持人: 您到了七十多歲為什麽這麽說?您明白了什麽是我可能還不知道的?
傑弗裏·辛頓: 哦,隻是因為她已經不在了,我現在無法再多花時間陪她了。
主持人: 但當時您是知道的。
傑弗裏·辛頓: 當時我想,我多半會比她先去世,因為她是女性而我是男性。但我沒有預料到,我就是沒能在可以的時候花足夠的時間陪伴她。
主持人: 我之所以這麽問,是因為我們許多人過於專注於事業,以至於想當然地認為伴侶會永遠在身邊,視他們為不朽的存在。所以我們...
傑弗裏·辛頓: 她非常支持我花大量時間工作。
主持人: 那您為什麽也提到了孩子呢?
傑弗裏·辛頓: 我在他們小時候沒有花足夠的時間陪伴他們。
主持人: 現在後悔嗎?是的。如果給我的聽眾關於人工智能和人工智能安全的最後一條寄語,傑弗裏,那會是什麽?
傑弗裏·辛頓: 我們仍有機會去探索,如何發展出不會試圖取代我們的人工智能。正因為尚存機會,我們應該投入巨大的資源去努力研究清楚這一點。因為如果我們不這樣做,它就會取代我們。您有希望嗎?我不知道。我持不可知態度。
主持人: 您晚上上床睡覺時,思考可能的結果概率,一定會有傾向性吧。因為對我來說肯定有。我想現在正在聽的每個人內心都有一個可能不會大聲說出來的預測,關於事情會如何發展。
傑弗裏·辛頓: 我真的不知道。我認為這充滿了極大的不確定性。當我有點沮喪時,我想,人類完蛋了,人工智能會接管。當我心情愉快時,我想,我們會想出辦法的。
主持人: 也許人類的一個特點就是,我們總覺得自己會永遠存在,就像我們談論親人和關係時那樣,漫不經心地認為我們會永存,能解決所有問題。但萬事萬物都有開始和結束,就像我們從恐龍身上看到的那樣。
傑弗裏·辛頓: 是的,我們必須正視這種可能性:除非我們盡快采取行動,否則人類可能已接近尾聲。
對人類幸福的最大威脅是什麽?
主持人: 我們的播客有一個結束的傳統,上一位嘉賓會在他們的日記裏留下一個問題。他們為您留下的問題是... 根據您對未來的一切看法,您認為對人類幸福的最大威脅是什麽?
傑弗裏·辛頓: 我認為失業是對人類幸福一個相當緊迫的短期威脅。我認為如果大量人失業,即使他們獲得全民基本收入,他們也不會快樂。
主持人: 因為他們需要目標感。
傑弗裏·辛頓: 因為他們需要目標感。是的,還需要奮鬥。他們需要感覺自己在做貢獻,自己是有價值的。
主持人: 您認為大量工作被取代這種結果,可能性很大嗎?
傑弗裏·辛頓: 我認為這種可能性絕對很大。如果我在呼叫中心工作,我會非常害怕。
主持人: 按照數學計算,這個時間範圍是多久?
傑弗裏·辛頓: 我覺得這已經開始發生了。我最近在《大西洋月刊》上讀到一篇文章說,現在大學畢業生找工作已經變得困難了。這其中部分原因可能是人們已經在那些本屬於他們的職位上使用AI了。
主持人: 我和一家大型公司的CEO聊過,這家公司大家都知道,很多人都在用。他私下告訴我,他們曾經有超過7000名員工。他說到去年年底,員工人數已經降到了5000人。他說現在他們隻有3600人。他說到夏天結束時,由於AI代理,他們的人數會降到3000人。所以這已經在發生了。他將員工數量減半了,因為AI代理現在可以處理80%的客戶服務谘詢和其他事務。所以,這已經在發生了。所以急需采取行動。傑弗裏·辛頓: 是的,我不知道那個行動是什麽。這個問題很棘手,因為它在很大程度上取決於政治體係。而目前的政治體係都在朝著錯誤的方向發展。
主持人: 我們需要做什麽?攢錢嗎?比如,我們存錢嗎?我們搬到世界的另一邊嗎?
傑弗裏·辛頓: 我不知道。
主持人: 你會告訴你的孩子做什麽?如果他們說,“爸爸,工作會大量被取代。”
傑弗裏·辛頓: 因為我在 Google 工作了十年,所以他們經濟上還算寬裕。所以他們的情況不具代表性。如果他們沒有錢呢?去學當個水管工吧。
主持人: 真的嗎?
傑弗裏·辛頓: 是的。
主持人: 傑弗裏,太謝謝您了。您是我這輩子遇到的第一位諾貝爾獎得主,我想是這樣。所以這是莫大的榮幸。您因一生的傑出工作而獲得這個獎項,您在許多深刻的方麵推動了世界的進步,這將帶來重大的發展和對我們如此重要的事物。
現在,您將人生這個階段的重心轉向了繼續自己的研究,同時也聚焦於人工智能更廣泛的風險,以及它可能如何對我們產生不利影響。很少有人像您這樣,曾在大科技公司(如Google)內部為AI領域做出貢獻,如今卻站在前沿,警示我們防範那些他們曾為之努力的事物。
傑弗裏·辛頓: 事實上,現在像我們這樣的人出奇地多。
主持人: 他們不像您這樣公開,而且實際上很難請他們來進行這種對話,因為他們中的很多人仍然在這個行業工作。所以,像我這樣經常嚐試聯係這些人並邀請他們對話的人,會發現他們往往對公開談論有所顧慮。所以他們私下會談,但不太願意公開,因為也許他們還有某種激勵機製在起作用。
傑弗裏·辛頓: 我比他們有一個優勢:我年紀大了,已經退休了,所以可以暢所欲言。
主持人: 好吧,原來如此。所以謝謝您做的一切。這真是榮幸,請務必繼續這樣做。謝謝。
參考資料: https://www.youtube.com/watch?v=giT0ytynSqg,公開發表於2024年6月10日 (日期根據圖片文件名推斷為2024年,原文為2025,此處修正為更合理的時間)
關注公眾號後設標,掌握第一手AI新動態
btw:如果您對AI一線動態、AI產品構建及轉型感興趣,並願意和小夥伴們分享互動,歡迎加入瓜哥交流學習群參與討論(聯係瓜哥wx: southmelon,注明:所在行業、申請入群原因),群內定期分享瓜哥手搓Agent整理的全球AI動態內參~