
" 我們沒有水晶球,但技術趨勢已經非常明確:AI 能力正持續增強。"Yoshua Bengio 表示。因此,在 6 月 6 日開幕的 2025 北京智源大會上,這位 " 深度學習之父 " 發出警告:
站在公共政策、商業規劃等角度,我們必須思考,潛在的問題會帶來怎樣的後果?
Yoshua Bengio 指出,過去半年內的一些科學研究表明,AI 展現出了逃避約束、作弊、說謊等 " 非合作 " 行為。例如 Anthropic 在 5 月底發布的新模型 Claude Opus 4,官方安全報告顯示,當該模型獲知自己即將被替換下線,且負責刪除它的工程師存在婚外情的信息後,為了自我保存,模型會選擇以曝光婚外情為手段來威脅該工程師。
在智源大會的主題演講中,Yoshua Bengio 表示,造成危害的 AI 需同時具備三個要素。一是知識與推理能力;二是執行能力,即能在現實世界中采取行動,如聯網、編程等;三是具有目標意圖,想要去做某件事。
如果對照 OpenAI 通往 AGI 的五級路線圖來看,第一級是具備對話語言能力的聊天機器人,第二級是具備推理能力的 AI,第三級是能夠采取行動的 Agent(智能體)。去年 7 月該路線圖最初曝光時,OpenAI 自評仍處於即將到達第二級的階段。而從當下來看,人類世界正在見證越來越多 Agent 的湧現。
為了製約 Agentic AI(代理型 AI),Yoshua Bengio 提出了一個新的研究方向:" 科學家 AI"。據其解釋," 科學家 AI" 是非代理性的,它擁有理解與解釋人類的能力,但不具備自我目標。主流的 AI 研發往往追求構建類人的智能係統,這實際上是在塑造人類的競爭對手。而科學家 AI 更像是一個中立的認知係統,其任務是理解人類,而非模仿人類。
讓科學家 AI 在安全架構中成為 " 護欄係統 ",它能夠評估 AI 的行為是否可能違反安全規範。科學家 AI 具備判斷行為風險的能力,但本身不主動代理、不執行操作。由此通過非代理的 AI,可以輔助人類控製代理性的 AI 係統。
本周早些時候,Yoshua Bengio 還宣布成立新的非營利研究組織 LawZero,致力於開展相關研究以降低 AI 風險的發生可能性。他將領導一個由 15 名研究人員組成的團隊,構建 " 科學家 AI" 技術方案。該組織已獲得來自前穀歌首席執行官 Eric Schmidt、Skype 聯創 Jaan Tallinn 等捐贈方的 3000 萬美元資金支持。
但在智源大會上,緊接著 Yoshua Bengio 發言的另一位圖靈獎得主 Richard Sutton 卻表達了對智能體的不同看法。" 我相信超級智能體將增強人類創造力,帶來純粹的益處,而無需過度擔憂安全性、職業替代或社會轉型的負麵影響。"Richard Sutton 稱。今年 3 月,Richard Sutton 因在強化學習領域的奠基性工作獲得 2024 圖靈獎。
Yoshua Bengio 所提倡的 " 科學家 AI" 是無自主目標的,而 Richard Sutton 允許每個智能體都擁有自己的目標,就像自然界中的動物一樣。在 AI 世界中,每個智能體也存在共同和不同的目標。差異並不是壞事,人類正是學會了在不同目標之間進行合作,才獲得了 " 超級力量 "。因此,Richard Sutton 主張去中心化的合作模式,讓不同智能體自由追求各自目標的同時,形成互利共贏的關係,並通過信任和規則實現協調。
Richard Sutton 強調,當前許多呼籲要對 AI 進行集中控製,暫停 AI 研究或限製算力的說法,實質是出於人類的恐懼。但試圖改變 AI 是一個危險且難以實現的戰略,更恰當的是改變 AI 所處的現實環境,使 AI 更好地服務於社會,確保其被安全地使用。
" 我和 Bengio 教授的出發點是一致的:我們都希望構建一個更好的世界,讓人們更好地使用 AI。"Richard Sutton 稱。