簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 辛頓曆史性首訪中國 再次警告:AI就像一隻幼虎

辛頓曆史性首訪中國 再次警告:AI就像一隻幼虎

文章來源: DeepTech深科技 於 2025-07-26 09:27:56 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

7 月 26 號,2025 世界人工智能大會(WAIC)在上海正式開幕。這一次,我們迎來了 AI 領域的重量級嘉賓,諾貝爾獎和圖靈獎得主傑弗裏·辛頓(Geoffrey Hinton)。

這是辛頓首次踏足中國參加線下活動,對於 77 歲、身體欠佳的他來說實屬不易,也更能體現出他此次中國行的彌足珍貴。

辛頓曆史性首訪中國 再次警告:AI就像一隻幼虎

圖 | AI 安全國際對話上海共識簽署現場,辛頓、姚期智等專家合影(來源:資料圖)

就在 WAIC 開幕前一天,辛頓剛參加了第四屆人工智能國際安全對話(International Dialogues on AI Safety,IDAIS)。

他與清華大學交叉信息研究院和人工智能學院院長姚期智、加州大學伯克利分校教授斯圖爾特·拉塞爾(Stuart Russell),以及上海人工智能實驗室主任周伯文教授等 20 餘名專家聯名簽署發布了《AI 安全國際對話上海共識》。

今天,辛頓以一場“數字智能是否會取代生物智能”的演講為 WAIC 開幕。

圖片

首先,辛頓討論了兩種智能範式。

一種是受邏輯啟發的方法,也就是傳統人工智能(AI)。

這種方法的核心觀念是“人類智能的本質在於推理”。要實現推理,就需要建立一套符號表達式,再通過符號規則去操作它們。

而信奉這種方法的人認為,學習可以暫緩,首先要理解隻是如何以符號表達的形式進行表示。

圖片

另一種方法,則是受生物學啟發的,也就是艾倫·圖靈(Alan Turing)和約翰·馮·諾伊曼(John von Neumann)所推崇的,智能的本質在於(腦細胞)網絡的學習。

對人類而言,腦細胞是學習的關鍵;對計算機來說,就需要模擬。理解學習的機製最重要,而推理可以暫緩。

1985 年,辛頓做了個小模型,嚐試結合這兩種理論,以解釋人們如何理解詞匯。他給每個詞設置多個不同特征,記錄數字特征來預測下一個詞,過程中不存儲句子而是生成句子並不斷預測下一個詞。

“相關聯性的知識,取決於不同的詞的特征與語義特征是如何進行互動的。”辛頓表示。

他接下來提到了推動語言模型發展的幾個關鍵節點。

圖片

10 年後,人們沿用此模式建模並擴大規模,成為自然語言真實模擬。20 年後,計算語言學家們終於開始接受並使用“特征向量”(嵌入)技術。

而到了三十年後,穀歌發明了 Transformer 架構,緊接著 OpenAI 向世界展示了基於該架構的大語言模型所具備的強大能力。

如今的大語言模型可視為 1985 年微型語言模型的後代,使用更多詞輸入、更多層神經元結構,建立更複雜特征交互模式。

圖片

大語言模型理解問題方式和人類類似,都是將詞語轉換成能夠相互良好配合的特征向量來實現這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。

辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同類型的“樂高積木”。

每一塊的形狀都不是固定不變,而詞語的含義(名字)隻是大致告訴你它的“形狀”。

圖片

辛頓在此前的演講中就用過這個比喻,他當時的解釋更加細致:

“詞語”的上麵還有“小手”。當你改變詞的“形狀”時,“小手”的形狀也會隨之改變。這些詞語與詞語之間,就是通過“握手”來優化意思理解,類似蛋白質組合氨基酸產生有意義內容。

當詞語進入模型,它們在這個高維空間裏帶著各自初始的、大致的形狀,身上還布滿了小手。當信息在網絡的層級間向上傳遞時,你就在不斷地調整這些詞的“形狀”和它們“小手”的形狀,試圖為每個詞找到最合適的形態,讓它們彼此之間都能完美地“握手”。

這樣一來,語言其實就是一種建模過程(搭積木的過程),可根據情況調整所需的詞匯(積木)。

最終,這就類似蛋白質組合成氨基酸,詞匯的組合會產生有意義的內容。

“其實人腦和神經網絡理解意思的方式相似,而且‘幻覺’並非大模型專屬,人類也會產生。”辛頓解釋道。

圖片

接下來,辛頓討論了人類與大模型的差異性。

計算機科學將軟件和硬件分開,軟件中的知識永恒存在,即便硬件毀滅,隻要軟件在就能複活。

但人類不同,人腦是模擬的,神經元連接方式因人而異,知識傳播與硬件(大腦)緊密相關,無法像軟件知識那樣輕易轉移。人類的硬件一旦毀滅,所有知識都會煙消雲散。所以人類靠學校、老師來傳承知識,但效率極低。

人腦知識難以高效轉移給他人,每秒最多傳遞約 10-100 比特信息。當然,人類的優勢在於生物計算能耗少,如人類大腦僅需 30 瓦特功率。

圖片

相比之下,神經網絡之間的知識共享就快多了,盡管能耗很大。

當大模型共享信息時,通過平均化權重,它們一次交互就能分享大量比特的內容。比如在如今大模型的訓練中,每個模型都會部署多個副本,去分別學習不同的數據,然後所有副本再進行同步。

這就像人類學會了分身,同時去上不同的課程,然後隻要聚在一起,知識就在每個個體中同步完成了。

圖片

最後,辛頓討論了 AI 可能帶來的挑戰與潛在的應對方法。

幾乎所有人都相信,一定會出現比人類更智能的 AI,而 AI 智能體為了完成任務,會想要生存、獲得更多控製。

圖片

辛頓此前已多次在公開信和演講中指出,當前 AI 係統已經具備自主學習和演化的潛能。

一旦其擁有長期目標,就可能會發展出與人類目標不一致的“子目標”,甚至試圖欺騙人類、操縱人類、逃脫人類的控製。

圖片

在此次 WAIC 上,

辛頓又拿出了他很經典的比喻:現在的人類就像撫養幼小的虎崽,除非你能非常確定它長大後不會傷害你,否則你就應該擔心。

但人類又無法徹底禁止 AI,因為它在很多領域作用重大,所以隻能尋找一種辦法,確保人類不會被 AI 消滅。

圖片

說起來容易,做起來難。

辛頓認為,這種努力應該是全球性的。但他坦言:

“各國不會在防禦 AI 的危險用途上進行合作。”

因為每個國家都有自己的戰略考量。

圖片

因此,他寄希望於國際社會在“預防 AI 統治世界”這一問題上達成一致,防止 AI 從人類手中奪走控製權。

辛頓最後提議,

人類應當建立 AI 安全機構的國際社群,研究訓練 AI 向善的技巧。

這就好比,“教導孩子成為一個好人”與“讓他們變得更聰明”,是兩碼事。

圖片

辛頓提議,

各國可在本國主權範圍內研究並分享成果(在允許的範圍內),全球或 AI 領導國家應思考建立相關網絡,研究如何訓練聰明的 AI 輔助人類而非消滅或統治人類。

“因為這將是人類長期麵臨的重要問題。”辛頓說道。

圖片

附傑弗裏·辛頓生平簡介

:傑弗裏·辛頓(Geoffrey Hinton),被譽為“人工智能教父”,是一位英裔加拿大計算機科學家和心理學家,是深度學習的奠基人之一。

1986 年,他與大衛·拉梅爾哈特(David Rumelhart)等人合作提出了將反向傳播算法應用於神經網絡訓練的劃時代方法,使多層神經網絡的訓練成為可能。這一算法成為後來深度學習的基石。

2012 年,辛頓帶領學生亞曆克斯·克裏澤夫斯基(Alex Krizhevsky)和伊利亞·蘇茨克維爾(Ilya Sutskever)開發了卷積神經網絡 AlexNet,在 ImageNet 圖像識別競賽中遠超其他模型,引爆了深度學習浪潮。

隨後,辛頓創立的 DNNresearch 公司被穀歌收購,他本人也加入穀歌大腦團隊,成為推動 AI 產業化的重要力量之一。

由於在神經網絡領域的卓越貢獻,他於 2018 年獲得 ACM 圖靈獎,與楊立昆(Yann LeCun)和約書亞·本吉奧(Yoshua Bengio)共享該榮譽。2024 年,他又被授予諾貝爾物理學獎,表彰其在 AI 模型結構方麵的突破性貢獻。

近年來,辛頓的研究重心逐漸轉向 AI 安全問題。他認為 AI 的發展速度已經遠超預期,其潛力和風險都不容忽視。在 2023 年離開穀歌後,他更加頻繁地公開發聲,表達對通用人工智能(AGI

)未來影響的擔憂。

他此前曾估計,AI 接管並摧毀人類文明的概率在 10% 到 20% 之間,雖然不是必然結局,但足以令人警惕。

至於如何應對 AI 風險,辛頓呼籲科技公司和政府投入更多資源進行 AI 安全研究。他建議至少將三分之一的計算資源用於研究如何確保 AI 係統不會偏離人類意圖。他還批評一些大型科技公司為追求商業利益而遊說放鬆監管,認為這是一種極其危險的趨勢。

在技術層麵,他嚐試提出新的神經網絡訓練方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓練機製。

總的來說,辛頓既是深度學習崛起的重要推動者,也成為了重視 AI 安全呼聲中最具分量的聲音發出者:呼籲人類社會保持警覺,在繼續推動 AI 創新的同時,必須正視其潛在的社會風險和生存性挑戰。

查看評論(11)

24小時熱點排行

58歲宋祖英罕見露麵,短發造型驚豔,皮膚光澤Q彈
一份與釋永信通奸女人筆錄 被舉報私生活混亂
履曆寫“曾受領導劇烈撞擊45分鍾”985美女後續 真相大白
華人家的花園太醜險遭罰款,大家評評冤不冤
中國餐廳日營業額“慘崩9成” 關店潮猛烈來襲

24小時討論排行

英防長:若台灣爆發戰事 英國已準備好在亞太區作戰
大罷免失敗 給民進黨上了一堂民主課
釋永信涉刑事犯罪 嚴重違反戒律 包養多名情婦還有私生子
參議員提法案:任何人隻要在美國居住7年就發綠卡!
史無前例!美歐貿易協議 總價達$1.35萬億
真正奇怪的是,釋永信為何現在才被查?
特朗普:克林頓去過那個小島28次 我從來沒去過
醫學生飛機上救人,被質疑沒有行醫資格
關稅收入超$3000億,特朗普放話給美國人發紅包!
盧比奧:萬斯是2028年美國總統“絕佳候選人”
美歐15%關稅條件曝光!馮德萊恩:已是最佳結果
川普花式改造白宮 裝修前後對比圖曝光 網友瘋狂吐槽
流亡政府:藏族歌手在中國被捕 疑因讚頌達賴喇嘛
川普出手 隻用這招“一劍封喉” 就讓兩國同意停火
外星人?女子家門口拍到詭異生物 百萬網友炸鍋了
中國大學文憑貶值,但學費飆漲
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文學城新聞
切換到網頁版

辛頓曆史性首訪中國 再次警告:AI就像一隻幼虎

DeepTech深科技 2025-07-26 09:27:56

7 月 26 號,2025 世界人工智能大會(WAIC)在上海正式開幕。這一次,我們迎來了 AI 領域的重量級嘉賓,諾貝爾獎和圖靈獎得主傑弗裏·辛頓(Geoffrey Hinton)。

這是辛頓首次踏足中國參加線下活動,對於 77 歲、身體欠佳的他來說實屬不易,也更能體現出他此次中國行的彌足珍貴。

辛頓曆史性首訪中國 再次警告:AI就像一隻幼虎

圖 | AI 安全國際對話上海共識簽署現場,辛頓、姚期智等專家合影(來源:資料圖)

就在 WAIC 開幕前一天,辛頓剛參加了第四屆人工智能國際安全對話(International Dialogues on AI Safety,IDAIS)。

他與清華大學交叉信息研究院和人工智能學院院長姚期智、加州大學伯克利分校教授斯圖爾特·拉塞爾(Stuart Russell),以及上海人工智能實驗室主任周伯文教授等 20 餘名專家聯名簽署發布了《AI 安全國際對話上海共識》。

今天,辛頓以一場“數字智能是否會取代生物智能”的演講為 WAIC 開幕。

圖片

首先,辛頓討論了兩種智能範式。

一種是受邏輯啟發的方法,也就是傳統人工智能(AI)。

這種方法的核心觀念是“人類智能的本質在於推理”。要實現推理,就需要建立一套符號表達式,再通過符號規則去操作它們。

而信奉這種方法的人認為,學習可以暫緩,首先要理解隻是如何以符號表達的形式進行表示。

圖片

另一種方法,則是受生物學啟發的,也就是艾倫·圖靈(Alan Turing)和約翰·馮·諾伊曼(John von Neumann)所推崇的,智能的本質在於(腦細胞)網絡的學習。

對人類而言,腦細胞是學習的關鍵;對計算機來說,就需要模擬。理解學習的機製最重要,而推理可以暫緩。

1985 年,辛頓做了個小模型,嚐試結合這兩種理論,以解釋人們如何理解詞匯。他給每個詞設置多個不同特征,記錄數字特征來預測下一個詞,過程中不存儲句子而是生成句子並不斷預測下一個詞。

“相關聯性的知識,取決於不同的詞的特征與語義特征是如何進行互動的。”辛頓表示。

他接下來提到了推動語言模型發展的幾個關鍵節點。

圖片

10 年後,人們沿用此模式建模並擴大規模,成為自然語言真實模擬。20 年後,計算語言學家們終於開始接受並使用“特征向量”(嵌入)技術。

而到了三十年後,穀歌發明了 Transformer 架構,緊接著 OpenAI 向世界展示了基於該架構的大語言模型所具備的強大能力。

如今的大語言模型可視為 1985 年微型語言模型的後代,使用更多詞輸入、更多層神經元結構,建立更複雜特征交互模式。

圖片

大語言模型理解問題方式和人類類似,都是將詞語轉換成能夠相互良好配合的特征向量來實現這種理解的,而且大語言模型是真正能夠“理解”它們自己所說的話的。

辛頓將“詞語”視作多維度樂高積木。我們擁有的不是幾種,而是大約十萬種不同類型的“樂高積木”。

每一塊的形狀都不是固定不變,而詞語的含義(名字)隻是大致告訴你它的“形狀”。

圖片

辛頓在此前的演講中就用過這個比喻,他當時的解釋更加細致:

“詞語”的上麵還有“小手”。當你改變詞的“形狀”時,“小手”的形狀也會隨之改變。這些詞語與詞語之間,就是通過“握手”來優化意思理解,類似蛋白質組合氨基酸產生有意義內容。

當詞語進入模型,它們在這個高維空間裏帶著各自初始的、大致的形狀,身上還布滿了小手。當信息在網絡的層級間向上傳遞時,你就在不斷地調整這些詞的“形狀”和它們“小手”的形狀,試圖為每個詞找到最合適的形態,讓它們彼此之間都能完美地“握手”。

這樣一來,語言其實就是一種建模過程(搭積木的過程),可根據情況調整所需的詞匯(積木)。

最終,這就類似蛋白質組合成氨基酸,詞匯的組合會產生有意義的內容。

“其實人腦和神經網絡理解意思的方式相似,而且‘幻覺’並非大模型專屬,人類也會產生。”辛頓解釋道。

圖片

接下來,辛頓討論了人類與大模型的差異性。

計算機科學將軟件和硬件分開,軟件中的知識永恒存在,即便硬件毀滅,隻要軟件在就能複活。

但人類不同,人腦是模擬的,神經元連接方式因人而異,知識傳播與硬件(大腦)緊密相關,無法像軟件知識那樣輕易轉移。人類的硬件一旦毀滅,所有知識都會煙消雲散。所以人類靠學校、老師來傳承知識,但效率極低。

人腦知識難以高效轉移給他人,每秒最多傳遞約 10-100 比特信息。當然,人類的優勢在於生物計算能耗少,如人類大腦僅需 30 瓦特功率。

圖片

相比之下,神經網絡之間的知識共享就快多了,盡管能耗很大。

當大模型共享信息時,通過平均化權重,它們一次交互就能分享大量比特的內容。比如在如今大模型的訓練中,每個模型都會部署多個副本,去分別學習不同的數據,然後所有副本再進行同步。

這就像人類學會了分身,同時去上不同的課程,然後隻要聚在一起,知識就在每個個體中同步完成了。

圖片

最後,辛頓討論了 AI 可能帶來的挑戰與潛在的應對方法。

幾乎所有人都相信,一定會出現比人類更智能的 AI,而 AI 智能體為了完成任務,會想要生存、獲得更多控製。

圖片

辛頓此前已多次在公開信和演講中指出,當前 AI 係統已經具備自主學習和演化的潛能。

一旦其擁有長期目標,就可能會發展出與人類目標不一致的“子目標”,甚至試圖欺騙人類、操縱人類、逃脫人類的控製。

圖片

在此次 WAIC 上,

辛頓又拿出了他很經典的比喻:現在的人類就像撫養幼小的虎崽,除非你能非常確定它長大後不會傷害你,否則你就應該擔心。

但人類又無法徹底禁止 AI,因為它在很多領域作用重大,所以隻能尋找一種辦法,確保人類不會被 AI 消滅。

圖片

說起來容易,做起來難。

辛頓認為,這種努力應該是全球性的。但他坦言:

“各國不會在防禦 AI 的危險用途上進行合作。”

因為每個國家都有自己的戰略考量。

圖片

因此,他寄希望於國際社會在“預防 AI 統治世界”這一問題上達成一致,防止 AI 從人類手中奪走控製權。

辛頓最後提議,

人類應當建立 AI 安全機構的國際社群,研究訓練 AI 向善的技巧。

這就好比,“教導孩子成為一個好人”與“讓他們變得更聰明”,是兩碼事。

圖片

辛頓提議,

各國可在本國主權範圍內研究並分享成果(在允許的範圍內),全球或 AI 領導國家應思考建立相關網絡,研究如何訓練聰明的 AI 輔助人類而非消滅或統治人類。

“因為這將是人類長期麵臨的重要問題。”辛頓說道。

圖片

附傑弗裏·辛頓生平簡介

:傑弗裏·辛頓(Geoffrey Hinton),被譽為“人工智能教父”,是一位英裔加拿大計算機科學家和心理學家,是深度學習的奠基人之一。

1986 年,他與大衛·拉梅爾哈特(David Rumelhart)等人合作提出了將反向傳播算法應用於神經網絡訓練的劃時代方法,使多層神經網絡的訓練成為可能。這一算法成為後來深度學習的基石。

2012 年,辛頓帶領學生亞曆克斯·克裏澤夫斯基(Alex Krizhevsky)和伊利亞·蘇茨克維爾(Ilya Sutskever)開發了卷積神經網絡 AlexNet,在 ImageNet 圖像識別競賽中遠超其他模型,引爆了深度學習浪潮。

隨後,辛頓創立的 DNNresearch 公司被穀歌收購,他本人也加入穀歌大腦團隊,成為推動 AI 產業化的重要力量之一。

由於在神經網絡領域的卓越貢獻,他於 2018 年獲得 ACM 圖靈獎,與楊立昆(Yann LeCun)和約書亞·本吉奧(Yoshua Bengio)共享該榮譽。2024 年,他又被授予諾貝爾物理學獎,表彰其在 AI 模型結構方麵的突破性貢獻。

近年來,辛頓的研究重心逐漸轉向 AI 安全問題。他認為 AI 的發展速度已經遠超預期,其潛力和風險都不容忽視。在 2023 年離開穀歌後,他更加頻繁地公開發聲,表達對通用人工智能(AGI

)未來影響的擔憂。

他此前曾估計,AI 接管並摧毀人類文明的概率在 10% 到 20% 之間,雖然不是必然結局,但足以令人警惕。

至於如何應對 AI 風險,辛頓呼籲科技公司和政府投入更多資源進行 AI 安全研究。他建議至少將三分之一的計算資源用於研究如何確保 AI 係統不會偏離人類意圖。他還批評一些大型科技公司為追求商業利益而遊說放鬆監管,認為這是一種極其危險的趨勢。

在技術層麵,他嚐試提出新的神經網絡訓練方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向傳播的更安全、靈活的訓練機製。

總的來說,辛頓既是深度學習崛起的重要推動者,也成為了重視 AI 安全呼聲中最具分量的聲音發出者:呼籲人類社會保持警覺,在繼續推動 AI 創新的同時,必須正視其潛在的社會風險和生存性挑戰。