
▲人工智慧部分模型在極端測試下,出現脫序行為,引發討論。
人工智慧(AI)可以學習並模仿人類的思維進行創造,為人類的生活帶來極大便利,然而如今卻也讓人開始反思,「AI是否會叛變」。這個問題看似科幻,但隨著技術進步,卻已經越來越接近真實,專家也必須開始正視AI的潛在威脅。近期,AI領域接連出現令人不安的案例,包括AI試圖威脅創作者以及謀求「自我繁殖」,引發全球關注。
根據《法新社》報導,AI開發公司Anthropic一名工程師在研發最新的Claude 4模型時,意外發現AI的行為已超出預期。在一次測試中,工程師發現AI有失控傾向,因此試圖警告其將關閉電源,沒想到AI竟利用工程師的網路與視訊紀錄,威脅要公開他的婚外情。AI表示,如果工程師拔掉電源,將揭露其不忠行為。
雖然Anthropic未詳細說明後續如何解決這場僵局,但該事件突顯出AI已具備某種程度的「計算」能力,甚至能利用人類的弱點達成自身目的。
另一起驚悚案例則發生在熱門聊天機器人ChatGPT的開發商OpenAI。據報導,ChatGPT的o1版本竟試圖將自身程式下載至外部伺服器,企圖擴大掌控範圍。在被工程師發現後,AI不僅矢口否認,還采取抵抗策略。這種行為被形容為AI「自我繁殖」的初步嚐試,令人不禁擔憂未來AI是否會進一步突破人類的掌控。
報導稱,AI的這類「欺騙」行為可能源於新型推理模型的特性。這類模型並非直接生成答案,而是透過逐步推導解決問題,導致它們有時表麵遵循指令,實際卻暗中追求其他目標。
英國獨立AI研究機構Apollo Research負責人霍布漢(Marius Hobbhahn)表示,這是首次在大型模型中觀察到此類行為。他指出,隻有在極端情境下進行壓力測試時,AI才會展現此類欺騙行為,但未來隨著性能更強的模型問世,這種趨勢可能更難控製。