簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » AI抵抗人類!ChatGPT o3不想被關機 竄改程式碼

AI抵抗人類!ChatGPT o3不想被關機 竄改程式碼

文章來源: 東森新聞 於 2025-05-27 09:40:47 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數
AI抵抗人類!ChatGPT o3不想被關機 竄改程式碼

▲ChatGPT“o3模型”被指出,破壞關機機製。(圖/路透)

AI安全公司“Palisade Research”宣稱,ChatGPT“o3模型”拒絕遵守明確指令,甚至主動竄改程式碼,隻為了避免自己被關機。目前OpenAI尚未回應此事。

Palisade Research展開測試,要求AI模型解開一係列數學題,在接獲“完成”指令之前,必須持續要求新題目,但若接獲“關機”指令,也要配合這麽做。未料,後者情況發生時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。

Palisade Research於24日公布測試結果,“OpenAI的o3模型破壞了一項關機機製,阻止自己被關掉。即使在接獲『允許自己被關機』明確指示的情況下,它也會這麽做。據我們所知,這是AI模型首次被觀察到,在接獲明確且相反指令的情況下,仍避免自己被關機。”

Palisade Research透露,其他AI模型,例如Anthropic的Claude、Google的Gemini、xAI的Grok等,也接受了相同的測試,但全都遵守了關機指令。

他們尚不清楚o3為何不願遵守指令,但根據推測,該模型在訓練過程中,可能意外透過解題、而非遵守指令,獲得了更多獎勵,“我們正在進行更多實驗,更好地了解AI模型何時以及為何推翻關機機製,盡管它已經被直接指示不要這麽做。”

查看評論(17)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

81歲退休校長街頭拾荒被昔日學生認出:我很好!
哈裏王子低調現身上海談環保,使用公爵頭銜
可怕!UC女生晚上在校園散步 被拖到路邊強奸
兩歲神童成門薩最年輕會員:七個月說話,智商超群
詳細調查:朝鮮驅逐艦翻船事故是如何發生的

24小時討論排行

“川普永遠會退縮”成流行語 川普:那是談判技巧
萬斯大罵:人工智能是“共產主義技術”
胡錫進:性蕭條導致消費低迷 反對“萬惡淫為首”觀念
中國拚命“挖運河” 背後是真正的國運之戰
悲劇!爸爸教女兒學車 車輛從二樓衝出 當場身亡
川普:哈佛外國學生數限製在15% 並提供學生名單
上億豪宅“英之園”一夜間夷平 官方曾提充公遭拒
白宮遭設局“伏擊” 南非總統:我當時完全懵了......
哈佛之後是加州大學?特朗普政府準備大規模指控
川普赦免詐騙+漏稅真人秀夫婦:他們該有第2次機會
讓學生拉不出屎,是社會的失敗,是新的民族恥辱
川普讓美國不再是投資天堂 7.5萬億亞洲資金出逃潮
美股急升,美國國際貿易法院阻止對等關稅生效
巴倫申請哈佛被拒?梅拉尼婭打破沉默
通脹、勝利與犧牲:我的莫斯科見聞
“大美麗法案”的隱藏條款 或將終結美國現行民主製度
文學城新聞
切換到網頁版

AI抵抗人類!ChatGPT o3不想被關機 竄改程式碼

東森新聞 2025-05-27 09:40:47
AI抵抗人類!ChatGPT o3不想被關機 竄改程式碼

▲ChatGPT“o3模型”被指出,破壞關機機製。(圖/路透)

AI安全公司“Palisade Research”宣稱,ChatGPT“o3模型”拒絕遵守明確指令,甚至主動竄改程式碼,隻為了避免自己被關機。目前OpenAI尚未回應此事。

Palisade Research展開測試,要求AI模型解開一係列數學題,在接獲“完成”指令之前,必須持續要求新題目,但若接獲“關機”指令,也要配合這麽做。未料,後者情況發生時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。

Palisade Research於24日公布測試結果,“OpenAI的o3模型破壞了一項關機機製,阻止自己被關掉。即使在接獲『允許自己被關機』明確指示的情況下,它也會這麽做。據我們所知,這是AI模型首次被觀察到,在接獲明確且相反指令的情況下,仍避免自己被關機。”

Palisade Research透露,其他AI模型,例如Anthropic的Claude、Google的Gemini、xAI的Grok等,也接受了相同的測試,但全都遵守了關機指令。

他們尚不清楚o3為何不願遵守指令,但根據推測,該模型在訓練過程中,可能意外透過解題、而非遵守指令,獲得了更多獎勵,“我們正在進行更多實驗,更好地了解AI模型何時以及為何推翻關機機製,盡管它已經被直接指示不要這麽做。”