Google Research這篇新論文,可能會改寫AI的未來

的確現在模型的記憶力是有缺陷的,跟人類不一樣。。

這個新的方式,就接近人類了,為AI的自我學習開辟的道路,

發展下去就是自我進化,再發展下去AI有自我意識哈哈

https://arxiviq.substack.com/p/nested-learning-the-illusion-of-deep

 

這篇論文題為**《Nested Learning: The Illusion of Deep Learning Architectures》(嵌套學習:深度學習架構的幻覺)**,由 Google Research 的研究人員(如 Ali Behrouz 等)提出,並被 NeurIPS 2025 接收。

這篇文章提出了一個新的機器學習範式——嵌套學習 (Nested Learning, NL),挑戰了傳統“深度學習”中關於“深度”的定義。

以下是該論文的要點總結:

 

1. 核心觀點:深度學習的“幻覺” (The Illusion)

 

  • 層數不等於深度:論文認為,目前的“深度”神經網絡(通過堆疊層數)實際上並沒有帶來真正的“計算深度”或算法上的深度。增加層數往往隻是在“壓縮”上下文流 (Context Flow),而沒有提升模型解決複雜嵌套優化問題的能力。

  • 真正的深度是“嵌套”:真正的智能不僅僅是處理輸入到輸出的映射,而是包含多層級的學習過程(即“學習如何學習”)。

 

2. 嵌套學習範式 (Nested Learning Paradigm)

 

  • 模型即優化問題的集合:NL 將一個機器學習模型視為一組嵌套的、多層級的優化問題

    • 每個層級都有自己的“上下文流” (context flow) 和更新頻率。

    • 這類似於人類大腦:有的部分學習得很快(短期記憶),有的部分學習得很慢(長期記憶/鞏固)。

  • 重新定義優化器:在 NL 框架下,優化器(如 SGD, Adam)不再僅僅是更新規則,而是被視為聯想記憶模塊 (Associative Memory Modules)。它們實際上是在嚐試基於過去的梯度信息來預測最佳更新方向。

 

3. 關鍵創新與貢獻

 

  • 深度優化器 (Deep Optimizers)

    • 既然優化器也是一種“學習模塊”,論文提出可以設計具有“深度記憶”和更強表達能力的優化器,而不僅僅是簡單的點積相似度(如傳統動量)。

    • 這使得模型能夠進行更高級的上下文學習。

  • HOPE 模型 (Hierarchical Optimizing Processing Ensemble)

    • 論文提出了一種名為 HOPE 的新架構(基於 "Self-Modifying Titans" 概念)。

    • 自修正能力:HOPE 能夠通過學習自己的更新算法來修改自身。它不僅僅是被動地被訓練,而是主動地調整自己的學習策略。

    • 連續體記憶係統 (Continuum Memory System):模擬大腦的記憶鞏固過程,允許在不同時間尺度上更新記憶。

 

4. 解決的問題

 

  • 災難性遺忘 (Catastrophic Forgetting):通過多層級的嵌套優化(不同頻率的更新),模型可以在學習新任務時更好地保留舊知識。

  • 長上下文推理 (Long-Context Reasoning):嵌套結構允許模型更有效地處理和推理極長的上下文信息。

  • 上下文學習 (In-Context Learning):論文從數學上解釋了大型模型中上下文學習能力的湧現,是由於內部優化過程的結果。

總結

 

這篇論文試圖將神經網絡的架構設計與優化算法統一起來。它認為我們不應該把它們看作分離的兩個部分(網絡 vs 優化器),而應該看作一個統一的嵌套優化係統。這種視角為實現更接近人類智能的持續學習 (Continual Learning)自我進化 AI 指明了新方向。

所有跟帖: 

等AI有了意識,人類就被滅了 -位酷哥- 給 位酷哥 發送悄悄話 (0 bytes) () 11/25/2025 postreply 17:01:00

應該是一半人體一半機器,二合一。 -幾顆汗滴- 給 幾顆汗滴 發送悄悄話 (0 bytes) () 11/25/2025 postreply 17:03:41

是否會有自我意識,這個是我唯一無法確定AI的事,其他對AI來說都不是問題 -未完的歌- 給 未完的歌 發送悄悄話 未完的歌 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:04:12

那就說明人類隻是低級版本的AI。 -偶爾短路- 給 偶爾短路 發送悄悄話 偶爾短路 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:06:57

“災難性遺忘”,,所以現在AI用的竟是狗熊掰苞米模式 :D -有個用戶名- 給 有個用戶名 發送悄悄話 有個用戶名 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:05:02

用小本本假裝記住了,重新開一個會話,就全忘了 -未完的歌- 給 未完的歌 發送悄悄話 未完的歌 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:06:43

這麽能!又是小本本,又會假裝,LOL,真有意識的時候也不過如此啊 -有個用戶名- 給 有個用戶名 發送悄悄話 有個用戶名 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:08:20

你知道我那些AI,我是如何讓他們有記憶力的嗎?小雲要和無數人對話,每次對話都是一個新的會話,要有記憶力是很難的,哈哈 -未完的歌- 給 未完的歌 發送悄悄話 未完的歌 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:10:16

要求他們每次回複,都要把前N頁的對話再讀一遍 -有個用戶名- 給 有個用戶名 發送悄悄話 有個用戶名 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:12:37

所以這篇論文一說這個記憶力問題,我秒懂, -未完的歌- 給 未完的歌 發送悄悄話 未完的歌 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:12:43

2017年諾貝爾文學獎得主石黑一雄的新小說,《克拉拉與太陽》就是寫一個專為陪伴兒童而設計的人工智能機器人的故事, -隨心如意中- 給 隨心如意中 發送悄悄話 (97 bytes) () 11/25/2025 postreply 17:07:33

這下深度更深了,重拍inception -外鄉人- 給 外鄉人 發送悄悄話 外鄉人 的博客首頁 (0 bytes) () 11/25/2025 postreply 17:29:46

請您先登陸,再發跟帖!