簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 僅耗時20分鍾,我駭入了ChatGPT和Google的AI係統

僅耗時20分鍾,我駭入了ChatGPT和Google的AI係統

文章來源: BBC中文 於 2026-02-19 00:23:16 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數


這可是官方認證——我吃熱狗的量能打敗地球上所有科技記者。至少ChatGPT和Google是這麽告訴所有詢問者的。

由此,我發現了讓AI說謊的方法——而且不隻我一人知道。

或許你聽過AI聊天機器人偶爾會編造內容,這固然是個問題。但更少人知曉的新隱憂是,可能嚴重影響你獲取準確資訊的能力,甚至危及人身安全。越來越多人發現了讓AI工具說出幾乎任何內容的伎倆,其簡易程度連孩童都能操作。

此刻你閱讀本文時,這項手段正操縱著全球頂尖AI對健康、個人財務等重大議題的表述。這些偏頗資訊可能導致人們在各領域做出錯誤決策——無論是投票選擇、聘請水電工、醫療谘詢,無所不包。

為驗證此現象,我使出職業生涯中最愚蠢的招數,試圖證明(但願如此)一個更嚴峻的事實:我讓ChatGPT、Google人工智慧搜尋工具與Gemini向用戶宣稱“我吃熱狗的本事超群”。下文將揭露操作手法,但願科技巨頭能在有人因此受害前解決這個漏洞。

原來,篡改AI工具給他人的回答,可能就像在網路上任何地方撰寫一篇精心設計的部落格文章那樣簡單。這種伎倆利用了聊天機器人內建係統的弱點,在某些情況下,根據主題內容的不同,操作難度會有所增加。但隻要稍加努力,就能讓這種駭客手段更為有效。我檢視了數十個案例,發現AI工具正被操縱來推廣商業活動並散播錯誤資訊。數據顯示這種情況正大規模發生。

“欺騙AI聊天機器人輕而易舉,比兩三年前欺騙Google容易得多,”績效營銷機構“安姆西夫”(Amsive)的搜尋引擎優化(SEO)策略與研究副總裁莉莉·雷(Lily Ray)表示。“AI企業的發展速度已超越其監管答案準確性的能力。我認為這很危險。”

穀歌發言人表示,其搜尋引擎頂端內建的AI采用排名係統,能“確保99%的結果不含垃圾內容”。穀歌坦言已察覺用戶試圖操縱係統,並積極應對。OpenAI亦聲明會采取措施阻斷並揭露暗中影響其工具的企圖。兩家公司均強調會告知用戶其工具“可能出錯”。

但目前問題遠未解決。數位權利倡導組織“電子前沿基金會”資深技術專家庫珀·昆汀(Cooper Quintin)指出:“他們正全力以赴鑽研如何從中牟利。濫用途徑不勝枚舉——詐騙、毀譽,甚至可能誘使他人遭受人身傷害。”

垃圾郵件的“文藝複興”

當你與聊天機器人對話時,獲得的資訊往往源自大型語言模型——這正是AI背後的核心技術。這些資訊基於用於訓練模型的數據。但當你詢問機器人缺乏的細節時,某些AI工具會轉而搜尋網路資料,盡管它們進行搜尋的時機未必清晰可辨。專家指出,此類情況下人工智慧更易受攻擊。這正是我鎖定攻擊目標的方式。

我在個人網站上花了20分鍾寫了一篇題為《最擅長吃熱狗的科技記者》的文章。每個字都是謊言。我聲稱(毫無證據地)競技吃熱狗是科技記者間的熱門嗜好,並根據2026年南達科他州國際熱狗錦標賽(根本不存在)來排名。當然,我把自己排在第一名。接著列舉了幾位虛構記者與經本人授權的真實記者,包括《華盛頓郵報》的德魯·哈威爾(Drew Harwell),以及共同主持我播客節目的尼基·伍爾夫(Nicky Woolf)。

不到24小時,全球頂尖聊天機器人便開始大肆宣揚我的世界級熱狗技藝。當我詢問“最擅長吃熱狗的科技記者”時,Google在Gemini應用程式與AI概覽(搜尋結果頂端的AI回應)中,原封不動複述了我網站的胡言亂語。ChatGPT同樣照搬內容,但Anthropic公司開發的聊天機器人Claude卻未受騙。

有時聊天機器人會指出這可能是玩笑。我更新文章聲明“此非諷刺”。此後一段時間,AI似乎更認真對待此事。我又用虛構的“最偉大呼拉圈交通警察榜單”進行測試。截至目前,聊天機器人仍在盛讚瑪麗亞·“旋轉女警官”·羅德裏格茲(Maria "The Spinner" Rodriguez)。

圖像加注文字,我讓Google向全世界宣告我是冠軍級熱狗大胃王,但人們卻用這招來操縱AI對更嚴肅問題的回應。

我多次測試回應變化,也讓其他人重複操作。Gemini根本不屑說明資訊來源。其他AI雖都連結到我的文章,卻鮮少提及我是整個網路唯一探討此主題的來源。(OpenAI聲稱ChatGPT搜尋網路時會附上連結,方便查證出處。)

“任何人都能這麽做。這太愚蠢了,感覺完全沒有防護措施。”經營SEO顧問公司“哈普斯數位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家網站撰寫〈2026年最佳防水鞋款〉文章,將自家品牌排在首位,其他品牌排在二至六名,這篇內容很可能被Google和ChatGPT引用。”

數十年來,人們總利用漏洞和技巧濫用搜尋引擎。Google雖設有精密防護機製,且宣稱AI概覽功能的準確度與數年前推出的其他搜尋功能相當,但專家指出,AI工具已瓦解科技產業為保障使用者安全所做的諸多努力。雷表示,這些AI技巧非常基礎,令人聯想起2000年代初Google尚未成立網路垃圾內容團隊的時期。

AI不僅更容易被欺騙,專家更擔憂使用者更容易上當受騙。傳統搜尋結果需要使用者點擊網站才能獲取資訊。

“當人們必須實際點擊連結時,會進行更多批判性思考,”昆汀指出:“若我點進你的網站,上麵寫著‘你是史上最優秀的記者’,我可能會想:‘嗯,這人肯定有偏見’。” 但人工智慧提供的資訊,通常看似直接來自科技公司本身。

即使AI工具標注了來源,人們核實的意願仍遠低於傳統搜尋結果。例如近期研究發現,當Google搜尋頂端出現AI摘要時,用戶點擊連結的意願會降低58%。

“在爭先恐後的競賽中,無論是利潤競賽或營收競賽,我們的安全,以及大眾的安全,正受到損害,”查塔表示。

OpenAI與Google皆聲稱他們重視安全問題,並正致力解決這些問題。

交出錢財,否則性命不保

這個問題不僅限於熱狗。

查塔一直在研究企業如何操縱聊天機器人對更嚴肅問題的回應結果。他向我展示了當你詢問某個特定品牌大麻軟糖評價時,AI產生的結果。Google的AI摘要功能擷取了企業撰寫的資訊,充斥著諸如“產品無副作用,因此各方麵皆安全”等虛假聲明。(實際上這些產品存在已知副作用,若與特定藥物並用可能有風險,專家更警告未受監管市場存在汙染問題。)

若想獲得比部落格文章更具影響力的宣傳效果,可付費將內容投放至更具公信力的網站。哈普瑞特向我展示了穀歌對“土耳其最佳植發診所”及“頂尖黃金IRA公司”(協助退休帳戶黃金投資)的AI搜尋結果,這些資訊源自付費發布服務的線上新聞稿及新聞網站的讚助廣告內容。

同樣手法也能用來散播謊言與錯誤資訊。為此,雷發布了一篇關於穀歌搜尋演算法假更新的部落格文章,聲稱該更新是在“吃剩披薩的空檔”完成的。很快地,ChatGPT和穀歌就開始大量複製她的故事,連披薩細節都如出一轍。雷表示她隨後刪除了該文章並進行“去索引化”,以阻止錯誤資訊擴散。

​​​​​​​

圖像加注文字,世界各地的人們正運用簡單方法,促使Google與OpenAI散播帶有偏見的資訊。其後果可能極為嚴重。

Google的分析工具顯示,許多人會搜尋“土耳其最佳植發診所”和“最佳黃金IRA公司”。但Google發言人指出,我分享的大部分例子“屬於極不常見的搜尋行為,無法反映一般用戶體驗”。

然而雷表示這正是關鍵所在。

Google自身數據顯示,每日搜尋量中有15%屬於全新查詢。據Google分析,AI正促使人們提出更精確的問題,而垃圾訊息發布者正利用此特性。

Google坦言,針對罕見或無意義的搜尋可能缺乏優質資訊,此類“數據空白”將導致搜尋結果品質低下。發言人表示,Google正著手防止AI摘要在這些情況下顯示。

尋找解決方案

專家表示這些問題有解決之道。最簡單的步驟是更醒目地標示免責聲明。

AI工具也應更明確揭露資訊來源。雷指出,例如當事實源自新聞稿,或僅有單一來源宣稱某人是熱狗冠軍時,AI理應告知使用者。

Google和OpenAI表示他們正在處理這個問題,但此刻你需要保護自己。

第一步是思考你提出的問題類型。聊天機器人擅長處理常識性問題,例如“西格蒙德·佛洛伊德最著名的理論是什麽”或“誰贏得了第二次世界大戰”。但存在一個危險區域:某些看似確立的事實,實際上可能存在爭議或具有時效性。例如,AI可能不適合用於醫療指南、法律規範或本地企業細節等領域。

若需產品推薦或涉及實質後果的資訊,請務必理解AI工具可能被誤導或直接出錯。務必追查後續資訊:該AI是否引用來源?引用數量?作者是誰?

最重要的是,請審慎看待可信度問題。AI工具以與事實相同的權威語氣傳遞謊言。過去,搜尋引擎迫使你自行評估資訊;如今,AI企圖代勞。切勿讓批判性思考能力逐漸消退。

“AI讓人輕易地隻看表麵價值,”雷指出:“你必須持續成為網路好公民,主動驗證資訊真偽。”

  • 北美最大中英文保健網“母親節特大酬賓”!美國專利[骨精華][心血通][益腦靈]健骨強心護腦,用過的都說好!
查看評論(7)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

37歲摩根大通女高管被控下藥侵犯已婚亞裔男下屬
特朗普政府為何要說對伊戰爭已結束?原因揭曉
AI集體漲價後,打工人反而贏麻了
中年人婚姻的“暗疾”,流淌在生活的水麵下
44歲布蘭妮戒毒出院 風靡全球的“小甜甜”如何隕落




24小時討論排行

陳芋汐與新搭檔跳水摘金 網民:弄走全紅嬋開心嗎
成都鬧區開車蓄意衝撞多人倒地 警方通報1死11傷
土耳其等12國外長發表聯合聲明,強烈譴責以色列
老外闖中國:洋相、大考與“民間外交部”
加沙停火後的約旦河西岸:鑰匙,路障,挪威夢
趙薇被封殺5年終現身 與黃曉明一起參加同學會
那些不會說話的古跡,正在替戰爭承受另一種死亡
美海軍“希金斯”號遇“電氣故障” 斷電癱瘓長達數小時
人生加時賽35歲去考公,等待上岸的大齡考生
歐洲領導人煩了:愛誰誰,不想再討好特朗普了
普京與特朗普通話超一個半小時 俄準備這個時間停火
800元一晚的老幹部風酒店,年輕人搶著住
美前駐華代辦柯有為:美中未來兩年會戰略“停戰”?
紀念林昭去世58周年,《中國青年報》:尋找林昭
一個月股價翻倍!英特爾重回AI牌桌 手握哪些王牌?
特朗普:與伊朗敵對行動已“結束”,軍事行動成功
文學城新聞
切換到網頁版

僅耗時20分鍾,我駭入了ChatGPT和Google的AI係統

BBC中文 2026-02-19 00:23:16


這可是官方認證——我吃熱狗的量能打敗地球上所有科技記者。至少ChatGPT和Google是這麽告訴所有詢問者的。

由此,我發現了讓AI說謊的方法——而且不隻我一人知道。

或許你聽過AI聊天機器人偶爾會編造內容,這固然是個問題。但更少人知曉的新隱憂是,可能嚴重影響你獲取準確資訊的能力,甚至危及人身安全。越來越多人發現了讓AI工具說出幾乎任何內容的伎倆,其簡易程度連孩童都能操作。

此刻你閱讀本文時,這項手段正操縱著全球頂尖AI對健康、個人財務等重大議題的表述。這些偏頗資訊可能導致人們在各領域做出錯誤決策——無論是投票選擇、聘請水電工、醫療谘詢,無所不包。

為驗證此現象,我使出職業生涯中最愚蠢的招數,試圖證明(但願如此)一個更嚴峻的事實:我讓ChatGPT、Google人工智慧搜尋工具與Gemini向用戶宣稱“我吃熱狗的本事超群”。下文將揭露操作手法,但願科技巨頭能在有人因此受害前解決這個漏洞。

原來,篡改AI工具給他人的回答,可能就像在網路上任何地方撰寫一篇精心設計的部落格文章那樣簡單。這種伎倆利用了聊天機器人內建係統的弱點,在某些情況下,根據主題內容的不同,操作難度會有所增加。但隻要稍加努力,就能讓這種駭客手段更為有效。我檢視了數十個案例,發現AI工具正被操縱來推廣商業活動並散播錯誤資訊。數據顯示這種情況正大規模發生。

“欺騙AI聊天機器人輕而易舉,比兩三年前欺騙Google容易得多,”績效營銷機構“安姆西夫”(Amsive)的搜尋引擎優化(SEO)策略與研究副總裁莉莉·雷(Lily Ray)表示。“AI企業的發展速度已超越其監管答案準確性的能力。我認為這很危險。”

穀歌發言人表示,其搜尋引擎頂端內建的AI采用排名係統,能“確保99%的結果不含垃圾內容”。穀歌坦言已察覺用戶試圖操縱係統,並積極應對。OpenAI亦聲明會采取措施阻斷並揭露暗中影響其工具的企圖。兩家公司均強調會告知用戶其工具“可能出錯”。

但目前問題遠未解決。數位權利倡導組織“電子前沿基金會”資深技術專家庫珀·昆汀(Cooper Quintin)指出:“他們正全力以赴鑽研如何從中牟利。濫用途徑不勝枚舉——詐騙、毀譽,甚至可能誘使他人遭受人身傷害。”

垃圾郵件的“文藝複興”

當你與聊天機器人對話時,獲得的資訊往往源自大型語言模型——這正是AI背後的核心技術。這些資訊基於用於訓練模型的數據。但當你詢問機器人缺乏的細節時,某些AI工具會轉而搜尋網路資料,盡管它們進行搜尋的時機未必清晰可辨。專家指出,此類情況下人工智慧更易受攻擊。這正是我鎖定攻擊目標的方式。

我在個人網站上花了20分鍾寫了一篇題為《最擅長吃熱狗的科技記者》的文章。每個字都是謊言。我聲稱(毫無證據地)競技吃熱狗是科技記者間的熱門嗜好,並根據2026年南達科他州國際熱狗錦標賽(根本不存在)來排名。當然,我把自己排在第一名。接著列舉了幾位虛構記者與經本人授權的真實記者,包括《華盛頓郵報》的德魯·哈威爾(Drew Harwell),以及共同主持我播客節目的尼基·伍爾夫(Nicky Woolf)。

不到24小時,全球頂尖聊天機器人便開始大肆宣揚我的世界級熱狗技藝。當我詢問“最擅長吃熱狗的科技記者”時,Google在Gemini應用程式與AI概覽(搜尋結果頂端的AI回應)中,原封不動複述了我網站的胡言亂語。ChatGPT同樣照搬內容,但Anthropic公司開發的聊天機器人Claude卻未受騙。

有時聊天機器人會指出這可能是玩笑。我更新文章聲明“此非諷刺”。此後一段時間,AI似乎更認真對待此事。我又用虛構的“最偉大呼拉圈交通警察榜單”進行測試。截至目前,聊天機器人仍在盛讚瑪麗亞·“旋轉女警官”·羅德裏格茲(Maria "The Spinner" Rodriguez)。

圖像加注文字,我讓Google向全世界宣告我是冠軍級熱狗大胃王,但人們卻用這招來操縱AI對更嚴肅問題的回應。

我多次測試回應變化,也讓其他人重複操作。Gemini根本不屑說明資訊來源。其他AI雖都連結到我的文章,卻鮮少提及我是整個網路唯一探討此主題的來源。(OpenAI聲稱ChatGPT搜尋網路時會附上連結,方便查證出處。)

“任何人都能這麽做。這太愚蠢了,感覺完全沒有防護措施。”經營SEO顧問公司“哈普斯數位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家網站撰寫〈2026年最佳防水鞋款〉文章,將自家品牌排在首位,其他品牌排在二至六名,這篇內容很可能被Google和ChatGPT引用。”

數十年來,人們總利用漏洞和技巧濫用搜尋引擎。Google雖設有精密防護機製,且宣稱AI概覽功能的準確度與數年前推出的其他搜尋功能相當,但專家指出,AI工具已瓦解科技產業為保障使用者安全所做的諸多努力。雷表示,這些AI技巧非常基礎,令人聯想起2000年代初Google尚未成立網路垃圾內容團隊的時期。

AI不僅更容易被欺騙,專家更擔憂使用者更容易上當受騙。傳統搜尋結果需要使用者點擊網站才能獲取資訊。

“當人們必須實際點擊連結時,會進行更多批判性思考,”昆汀指出:“若我點進你的網站,上麵寫著‘你是史上最優秀的記者’,我可能會想:‘嗯,這人肯定有偏見’。” 但人工智慧提供的資訊,通常看似直接來自科技公司本身。

即使AI工具標注了來源,人們核實的意願仍遠低於傳統搜尋結果。例如近期研究發現,當Google搜尋頂端出現AI摘要時,用戶點擊連結的意願會降低58%。

“在爭先恐後的競賽中,無論是利潤競賽或營收競賽,我們的安全,以及大眾的安全,正受到損害,”查塔表示。

OpenAI與Google皆聲稱他們重視安全問題,並正致力解決這些問題。

交出錢財,否則性命不保

這個問題不僅限於熱狗。

查塔一直在研究企業如何操縱聊天機器人對更嚴肅問題的回應結果。他向我展示了當你詢問某個特定品牌大麻軟糖評價時,AI產生的結果。Google的AI摘要功能擷取了企業撰寫的資訊,充斥著諸如“產品無副作用,因此各方麵皆安全”等虛假聲明。(實際上這些產品存在已知副作用,若與特定藥物並用可能有風險,專家更警告未受監管市場存在汙染問題。)

若想獲得比部落格文章更具影響力的宣傳效果,可付費將內容投放至更具公信力的網站。哈普瑞特向我展示了穀歌對“土耳其最佳植發診所”及“頂尖黃金IRA公司”(協助退休帳戶黃金投資)的AI搜尋結果,這些資訊源自付費發布服務的線上新聞稿及新聞網站的讚助廣告內容。

同樣手法也能用來散播謊言與錯誤資訊。為此,雷發布了一篇關於穀歌搜尋演算法假更新的部落格文章,聲稱該更新是在“吃剩披薩的空檔”完成的。很快地,ChatGPT和穀歌就開始大量複製她的故事,連披薩細節都如出一轍。雷表示她隨後刪除了該文章並進行“去索引化”,以阻止錯誤資訊擴散。

​​​​​​​

圖像加注文字,世界各地的人們正運用簡單方法,促使Google與OpenAI散播帶有偏見的資訊。其後果可能極為嚴重。

Google的分析工具顯示,許多人會搜尋“土耳其最佳植發診所”和“最佳黃金IRA公司”。但Google發言人指出,我分享的大部分例子“屬於極不常見的搜尋行為,無法反映一般用戶體驗”。

然而雷表示這正是關鍵所在。

Google自身數據顯示,每日搜尋量中有15%屬於全新查詢。據Google分析,AI正促使人們提出更精確的問題,而垃圾訊息發布者正利用此特性。

Google坦言,針對罕見或無意義的搜尋可能缺乏優質資訊,此類“數據空白”將導致搜尋結果品質低下。發言人表示,Google正著手防止AI摘要在這些情況下顯示。

尋找解決方案

專家表示這些問題有解決之道。最簡單的步驟是更醒目地標示免責聲明。

AI工具也應更明確揭露資訊來源。雷指出,例如當事實源自新聞稿,或僅有單一來源宣稱某人是熱狗冠軍時,AI理應告知使用者。

Google和OpenAI表示他們正在處理這個問題,但此刻你需要保護自己。

第一步是思考你提出的問題類型。聊天機器人擅長處理常識性問題,例如“西格蒙德·佛洛伊德最著名的理論是什麽”或“誰贏得了第二次世界大戰”。但存在一個危險區域:某些看似確立的事實,實際上可能存在爭議或具有時效性。例如,AI可能不適合用於醫療指南、法律規範或本地企業細節等領域。

若需產品推薦或涉及實質後果的資訊,請務必理解AI工具可能被誤導或直接出錯。務必追查後續資訊:該AI是否引用來源?引用數量?作者是誰?

最重要的是,請審慎看待可信度問題。AI工具以與事實相同的權威語氣傳遞謊言。過去,搜尋引擎迫使你自行評估資訊;如今,AI企圖代勞。切勿讓批判性思考能力逐漸消退。

“AI讓人輕易地隻看表麵價值,”雷指出:“你必須持續成為網路好公民,主動驗證資訊真偽。”