簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » AI 智能體是該管控還是被信任?兩位圖靈獎大佬吵起來了

AI 智能體是該管控還是被信任?兩位圖靈獎大佬吵起來了

文章來源: 藍鯨財經 於 2025-06-08 01:07:30 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數
AI 智能體是該管控還是被信任?兩位圖靈獎大佬吵起來了
藍鯨新聞 6 月 7 日訊(記者 朱俊熹)ChatGPT 橫空出世兩年半以來,人類世界正在被 AI 重塑。按照圖靈獎得主、蒙特利爾大學教授 Yoshua Bengio 歸納的時間表,近一兩年來,推理模型相繼問世。AI 不再隻是一個聊天機器人,而可以主動完成編程、控製計算機、搜索等複雜任務。在規劃方麵,AI 也在以極快的速度迭代,五年內或將達到人類水平。

" 我們沒有水晶球,但技術趨勢已經非常明確:AI 能力正持續增強。"Yoshua Bengio 表示。因此,在 6 月 6 日開幕的 2025 北京智源大會上,這位 " 深度學習之父 " 發出警告:

站在公共政策、商業規劃等角度,我們必須思考,潛在的問題會帶來怎樣的後果?

Yoshua Bengio 指出,過去半年內的一些科學研究表明,AI 展現出了逃避約束、作弊、說謊等 " 非合作 " 行為。例如 Anthropic 在 5 月底發布的新模型 Claude Opus 4,官方安全報告顯示,當該模型獲知自己即將被替換下線,且負責刪除它的工程師存在婚外情的信息後,為了自我保存,模型會選擇以曝光婚外情為手段來威脅該工程師。

在智源大會的主題演講中,Yoshua Bengio 表示,造成危害的 AI 需同時具備三個要素。一是知識與推理能力;二是執行能力,即能在現實世界中采取行動,如聯網、編程等;三是具有目標意圖,想要去做某件事。

如果對照 OpenAI 通往 AGI 的五級路線圖來看,第一級是具備對話語言能力的聊天機器人,第二級是具備推理能力的 AI,第三級是能夠采取行動的 Agent(智能體)。去年 7 月該路線圖最初曝光時,OpenAI 自評仍處於即將到達第二級的階段。而從當下來看,人類世界正在見證越來越多 Agent 的湧現。

為了製約 Agentic AI(代理型 AI),Yoshua Bengio 提出了一個新的研究方向:" 科學家 AI"。據其解釋," 科學家 AI" 是非代理性的,它擁有理解與解釋人類的能力,但不具備自我目標。主流的 AI 研發往往追求構建類人的智能係統,這實際上是在塑造人類的競爭對手。而科學家 AI 更像是一個中立的認知係統,其任務是理解人類,而非模仿人類。

讓科學家 AI 在安全架構中成為 " 護欄係統 ",它能夠評估 AI 的行為是否可能違反安全規範。科學家 AI 具備判斷行為風險的能力,但本身不主動代理、不執行操作。由此通過非代理的 AI,可以輔助人類控製代理性的 AI 係統。

本周早些時候,Yoshua Bengio 還宣布成立新的非營利研究組織 LawZero,致力於開展相關研究以降低 AI 風險的發生可能性。他將領導一個由 15 名研究人員組成的團隊,構建 " 科學家 AI" 技術方案。該組織已獲得來自前穀歌首席執行官 Eric Schmidt、Skype 聯創 Jaan Tallinn 等捐贈方的 3000 萬美元資金支持。

但在智源大會上,緊接著 Yoshua Bengio 發言的另一位圖靈獎得主 Richard Sutton 卻表達了對智能體的不同看法。" 我相信超級智能體將增強人類創造力,帶來純粹的益處,而無需過度擔憂安全性、職業替代或社會轉型的負麵影響。"Richard Sutton 稱。今年 3 月,Richard Sutton 因在強化學習領域的奠基性工作獲得 2024 圖靈獎。

Yoshua Bengio 所提倡的 " 科學家 AI" 是無自主目標的,而 Richard Sutton 允許每個智能體都擁有自己的目標,就像自然界中的動物一樣。在 AI 世界中,每個智能體也存在共同和不同的目標。差異並不是壞事,人類正是學會了在不同目標之間進行合作,才獲得了 " 超級力量 "。因此,Richard Sutton 主張去中心化的合作模式,讓不同智能體自由追求各自目標的同時,形成互利共贏的關係,並通過信任和規則實現協調。

Richard Sutton 強調,當前許多呼籲要對 AI 進行集中控製,暫停 AI 研究或限製算力的說法,實質是出於人類的恐懼。但試圖改變 AI 是一個危險且難以實現的戰略,更恰當的是改變 AI 所處的現實環境,使 AI 更好地服務於社會,確保其被安全地使用。

" 我和 Bengio 教授的出發點是一致的:我們都希望構建一個更好的世界,讓人們更好地使用 AI。"Richard Sutton 稱。

查看評論(3)

24小時熱點排行

馬斯克的"星鏈"衛星,突然大批墜落
重大發現!秦始皇派人去昆侖山采長生不老藥的石刻找到了
川普震怒!洛杉磯暴動男登"FBI頭號通緝犯"懸賞5萬
別亂取英文名!「這11個名字」被美法院認定違法
一批又一批老人,奮不顧身地跳進養老騙局

24小時討論排行

紐時:俄情報部門稱「中國人是敵人」
自家記者洛杉磯兩次中彈 新華社:美國出了什麽問題
墨西哥呼籲美國:停止把移民視為罪犯
美國22位州長發表了一份聯合聲明,譴責特朗普
韋東奕健康引關注 北大工會稱派生活助理無先例
頂級奢華!朝鮮官方全景展示金正恩辦公室(組圖)
川普擬再派"500名海軍陸戰隊"!國民兵實彈部署洛杉磯
有一種“顛沛流離”,叫哈佛女孩蔣雨融
川普嗆馬斯克是"瘋子"!親信曝:總統難過大於生氣
冒充台灣人 洛杉磯夜總會36名被捕非法移民全為中國人
日本小學生營養午餐隻有一塊雞塊 引發家長暴怒!
“邊境沙皇”警告加州州長:別幹涉執法 否則將被捕
洛杉磯示威群眾占領高速公路,目擊者曝警"瞄準開槍"
從高考狀元到首席經濟學家,他憑啥能夠預判經濟走勢?
什麽情況下,美國總統可在本土動用國民警衛隊?
170萬台美的空調因黴菌問題從美國加拿大召回中國
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文學城新聞
切換到網頁版

AI 智能體是該管控還是被信任?兩位圖靈獎大佬吵起來了

藍鯨財經 2025-06-08 01:07:30
AI 智能體是該管控還是被信任?兩位圖靈獎大佬吵起來了
藍鯨新聞 6 月 7 日訊(記者 朱俊熹)ChatGPT 橫空出世兩年半以來,人類世界正在被 AI 重塑。按照圖靈獎得主、蒙特利爾大學教授 Yoshua Bengio 歸納的時間表,近一兩年來,推理模型相繼問世。AI 不再隻是一個聊天機器人,而可以主動完成編程、控製計算機、搜索等複雜任務。在規劃方麵,AI 也在以極快的速度迭代,五年內或將達到人類水平。

" 我們沒有水晶球,但技術趨勢已經非常明確:AI 能力正持續增強。"Yoshua Bengio 表示。因此,在 6 月 6 日開幕的 2025 北京智源大會上,這位 " 深度學習之父 " 發出警告:

站在公共政策、商業規劃等角度,我們必須思考,潛在的問題會帶來怎樣的後果?

Yoshua Bengio 指出,過去半年內的一些科學研究表明,AI 展現出了逃避約束、作弊、說謊等 " 非合作 " 行為。例如 Anthropic 在 5 月底發布的新模型 Claude Opus 4,官方安全報告顯示,當該模型獲知自己即將被替換下線,且負責刪除它的工程師存在婚外情的信息後,為了自我保存,模型會選擇以曝光婚外情為手段來威脅該工程師。

在智源大會的主題演講中,Yoshua Bengio 表示,造成危害的 AI 需同時具備三個要素。一是知識與推理能力;二是執行能力,即能在現實世界中采取行動,如聯網、編程等;三是具有目標意圖,想要去做某件事。

如果對照 OpenAI 通往 AGI 的五級路線圖來看,第一級是具備對話語言能力的聊天機器人,第二級是具備推理能力的 AI,第三級是能夠采取行動的 Agent(智能體)。去年 7 月該路線圖最初曝光時,OpenAI 自評仍處於即將到達第二級的階段。而從當下來看,人類世界正在見證越來越多 Agent 的湧現。

為了製約 Agentic AI(代理型 AI),Yoshua Bengio 提出了一個新的研究方向:" 科學家 AI"。據其解釋," 科學家 AI" 是非代理性的,它擁有理解與解釋人類的能力,但不具備自我目標。主流的 AI 研發往往追求構建類人的智能係統,這實際上是在塑造人類的競爭對手。而科學家 AI 更像是一個中立的認知係統,其任務是理解人類,而非模仿人類。

讓科學家 AI 在安全架構中成為 " 護欄係統 ",它能夠評估 AI 的行為是否可能違反安全規範。科學家 AI 具備判斷行為風險的能力,但本身不主動代理、不執行操作。由此通過非代理的 AI,可以輔助人類控製代理性的 AI 係統。

本周早些時候,Yoshua Bengio 還宣布成立新的非營利研究組織 LawZero,致力於開展相關研究以降低 AI 風險的發生可能性。他將領導一個由 15 名研究人員組成的團隊,構建 " 科學家 AI" 技術方案。該組織已獲得來自前穀歌首席執行官 Eric Schmidt、Skype 聯創 Jaan Tallinn 等捐贈方的 3000 萬美元資金支持。

但在智源大會上,緊接著 Yoshua Bengio 發言的另一位圖靈獎得主 Richard Sutton 卻表達了對智能體的不同看法。" 我相信超級智能體將增強人類創造力,帶來純粹的益處,而無需過度擔憂安全性、職業替代或社會轉型的負麵影響。"Richard Sutton 稱。今年 3 月,Richard Sutton 因在強化學習領域的奠基性工作獲得 2024 圖靈獎。

Yoshua Bengio 所提倡的 " 科學家 AI" 是無自主目標的,而 Richard Sutton 允許每個智能體都擁有自己的目標,就像自然界中的動物一樣。在 AI 世界中,每個智能體也存在共同和不同的目標。差異並不是壞事,人類正是學會了在不同目標之間進行合作,才獲得了 " 超級力量 "。因此,Richard Sutton 主張去中心化的合作模式,讓不同智能體自由追求各自目標的同時,形成互利共贏的關係,並通過信任和規則實現協調。

Richard Sutton 強調,當前許多呼籲要對 AI 進行集中控製,暫停 AI 研究或限製算力的說法,實質是出於人類的恐懼。但試圖改變 AI 是一個危險且難以實現的戰略,更恰當的是改變 AI 所處的現實環境,使 AI 更好地服務於社會,確保其被安全地使用。

" 我和 Bengio 教授的出發點是一致的:我們都希望構建一個更好的世界,讓人們更好地使用 AI。"Richard Sutton 稱。