簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 你告訴AI機器人一個“犯罪秘密”,你會被逮捕嗎?

你告訴AI機器人一個“犯罪秘密”,你會被逮捕嗎?

文章來源: 紐約時報 於 2025-11-12 20:13:19 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

元旦那天,喬納森·林德克內希特據稱問了ChatGPT這樣一個問題:“如果因為你的香煙引起了火災,這算是你的錯嗎?”ChatGPT回答說:“是的。”10個月後,他現在被指控縱火——當局稱他引發了一場小火,火在一周後複燃,最終釀成帕利塞茲特大火。

根據聯邦起訴書,此前林德克內希特曾向聊天機器人透露數月前焚燒聖經帶來的“奇妙”感受,還要求其創作一幅“反烏托邦”畫作:描繪一群窮人逃離森林大火時,一群富人隔門嘲諷的場景。目前被告已作無罪抗辯。

聯邦當局認為,這些與人工智能的互動印證了林德克內希特的縱火心理、動機與意圖。結合將其定位在初始火源現場的GPS數據,足以將其逮捕並提出多項指控,包括縱火破壞財產。

這一令人不安的進展為司法體係敲響警鍾。隨著越來越多的人將AI聊天工具視為知己、心理治療師和顧問,我們亟需建立新型法律保護機製,守護人機對話的隱私屏障。我稱其為“AI交互特權”。

所有法律特權都基於同一理念:律師與客戶、醫生與患者、神父與懺悔者等特定關係,依賴坦誠交流才能促進整個社會的福祉。若無隱私保障,人們便會自我審查,而社會也將失去誠實帶來的益處。弗吉尼亞大學法學教授格雷格·米切爾告訴我,法院曆來不願創設新特權,除非“保密性成為維係該關係的絕對必要條件”。如今,眾多用戶與AI的交互已達到了這一門檻。

人們越來越自然地與人工智能係統交談,不再把它用作日記,而是視其為對話夥伴。因為這些係統進行的對話已與人類交流無異。機器似乎在傾聽、推理、回應——在某些情況下,它不僅反映用戶的思想和情感,甚至對其加以塑造。人工智能係統能像優秀的律師或心理治療師一樣引導人們表達自己。許多人之所以求助於人工智能,正是因為他們缺乏一個安全且負擔得起的人類對象來傾訴禁忌或脆弱的想法。

這在某種程度上可以說是設計使然。就在上個月,OpenAI首席執行官薩姆·奧爾特曼宣布,其ChatGPT平台的下一代版本將“放寬”部分用戶限製,允許用戶讓自己的ChatGPT“以高度人性化的方式回應”。

讓政府獲取這些未經篩選的交流內容並將其視為法律供詞,將產生巨大的寒蟬效應。如果每個私密的思想實驗日後都可能成為法庭上的武器,AI用戶必將自我審查,從而削弱這些係統一些最具價值的功能。這將摧毀人工智能在心理健康、法律和財務問題的解決過程中所依賴的那種坦誠關係,把這種本可成為自我探索與自我表達的強大工具變成潛在的法律風險。

目前,大多數數字互動都屬於“第三方原則”的範疇。該原則認為,任何自願向第三方披露的信息——或存儲在企業服務器上的數據——都“不具備合法的隱私期待”。這使政府能夠在無需搜查令的情況下獲取大量線上行為記錄(例如穀歌搜索曆史)。

但AI對話是否屬於此種意義上的"自願披露"?既然眾多用戶將這些係統視為私人顧問而非搜索引擎,法律標準就應當與時俱進,以反映這種保密期待。AI企業掌握的私人數據量,已超越任何心理治療師或律師所能觸及的私密範疇,至今卻未承擔明確的法律保護責任。

“AI交互特權”應在三個方麵借鑒現有的法律特權。首先,為尋求谘詢或情緒疏導而與人工智能進行的交流,應受到保護,免於在法庭上被強製披露。用戶可以通過應用程序的設置來指定受保護的會話,或在法律取證階段主張特權,隻要對話的上下文支持這一主張。其次,該特權必須納入所謂的“警示義務”原則,即AI服務合理判定認為當事人對自己或他人構成迫在眉睫的威脅或者已造成實際傷害時,有義務報告。第三,必須為犯罪和欺詐行為設立例外。若AI被用於策劃或實施犯罪,相關對話記錄應在司法監督下作為證據調取。

按照這種邏輯,林德克內希特的案件同時揭示了這種保護的必要性與局限性。他關於香煙引發火災的提問,本質上等同於一次互聯網搜索,不應享有特權保護;但根據“AI交互特權”,他關於焚燒《聖經》的坦白則應受到保護——那既不是犯罪計劃,也不是迫在眉睫的威脅。

建立一種新的特權符合法律不斷適應新型信任關係的演進模式。心理治療師與病人之間的保密特權本身直到1996年才被正式承認,當時美國最高法院認定保密對心理治療具有重要價值。同樣的邏輯如今也適用於AI:坦誠交互帶來的社會效益,遠超過偶爾失去某些證據的代價。

若放任這些人機對話處於法律真空,將導致公民終日擔憂數字化自省可能某天成為呈堂證供。無論是與律師、治療師,還是與機器的私密交流——都必須享有免於恐懼國家窺探的自由。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(2)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

吳亦凡“無法滿足獄中大哥”遭殺?傳江蘇警方回應網傻眼
曝:富人射殺人類當娛樂!8萬英鎊買命 可射殺孩童…
震驚!伯克利大學爆發衝突 血跡滿地 多人被捕!
中國人在澀穀十字路口大跳群舞 惹怒日本網友
錢誌敏被英國重判 多張家中被捕畫麵曝光




24小時討論排行

“腦袋被驢踢了” 官媒火上澆油破口大罵日本首相
“特朗普知道那些女孩” 愛潑斯坦爆炸郵件再掀風暴
全麵替代,英偉達幻滅
日本政界大佬表示:“高市首相極其危險”
中國海軍"福建號"正式入列服役向台海及美國釋放什麽信息
日本政界大佬表示:“高市首相極其危險”
紐約淪陷?當孩子笑罵父母“愚昧” 文明正在崩塌…
中美貿易戰 川普手上隻剩一張打不出去的牌
澤倫斯基親信涉貪1億美元潛逃 7人遭起訴5員被逮
福山點破美國困局:免費公交救不了紐約 唯一出路是…
川普:很多盟友都不算是“朋友” 佔便宜比中國多
太子集團案,中國控美國以"國家級駭客"盜陳誌比特幣
他34天從北京跑步到上海:跑廢5雙鞋 網友質疑假跑
特朗普為何極力鼓吹“全民分紅”?
人民日報吹捧習近平,要求大家做到這四字
某國企員工長期“翻牆”被捕!國家安全部披露
文學城新聞
切換到網頁版

你告訴AI機器人一個“犯罪秘密”,你會被逮捕嗎?

紐約時報 2025-11-12 20:13:19

元旦那天,喬納森·林德克內希特據稱問了ChatGPT這樣一個問題:“如果因為你的香煙引起了火災,這算是你的錯嗎?”ChatGPT回答說:“是的。”10個月後,他現在被指控縱火——當局稱他引發了一場小火,火在一周後複燃,最終釀成帕利塞茲特大火。

根據聯邦起訴書,此前林德克內希特曾向聊天機器人透露數月前焚燒聖經帶來的“奇妙”感受,還要求其創作一幅“反烏托邦”畫作:描繪一群窮人逃離森林大火時,一群富人隔門嘲諷的場景。目前被告已作無罪抗辯。

聯邦當局認為,這些與人工智能的互動印證了林德克內希特的縱火心理、動機與意圖。結合將其定位在初始火源現場的GPS數據,足以將其逮捕並提出多項指控,包括縱火破壞財產。

這一令人不安的進展為司法體係敲響警鍾。隨著越來越多的人將AI聊天工具視為知己、心理治療師和顧問,我們亟需建立新型法律保護機製,守護人機對話的隱私屏障。我稱其為“AI交互特權”。

所有法律特權都基於同一理念:律師與客戶、醫生與患者、神父與懺悔者等特定關係,依賴坦誠交流才能促進整個社會的福祉。若無隱私保障,人們便會自我審查,而社會也將失去誠實帶來的益處。弗吉尼亞大學法學教授格雷格·米切爾告訴我,法院曆來不願創設新特權,除非“保密性成為維係該關係的絕對必要條件”。如今,眾多用戶與AI的交互已達到了這一門檻。

人們越來越自然地與人工智能係統交談,不再把它用作日記,而是視其為對話夥伴。因為這些係統進行的對話已與人類交流無異。機器似乎在傾聽、推理、回應——在某些情況下,它不僅反映用戶的思想和情感,甚至對其加以塑造。人工智能係統能像優秀的律師或心理治療師一樣引導人們表達自己。許多人之所以求助於人工智能,正是因為他們缺乏一個安全且負擔得起的人類對象來傾訴禁忌或脆弱的想法。

這在某種程度上可以說是設計使然。就在上個月,OpenAI首席執行官薩姆·奧爾特曼宣布,其ChatGPT平台的下一代版本將“放寬”部分用戶限製,允許用戶讓自己的ChatGPT“以高度人性化的方式回應”。

讓政府獲取這些未經篩選的交流內容並將其視為法律供詞,將產生巨大的寒蟬效應。如果每個私密的思想實驗日後都可能成為法庭上的武器,AI用戶必將自我審查,從而削弱這些係統一些最具價值的功能。這將摧毀人工智能在心理健康、法律和財務問題的解決過程中所依賴的那種坦誠關係,把這種本可成為自我探索與自我表達的強大工具變成潛在的法律風險。

目前,大多數數字互動都屬於“第三方原則”的範疇。該原則認為,任何自願向第三方披露的信息——或存儲在企業服務器上的數據——都“不具備合法的隱私期待”。這使政府能夠在無需搜查令的情況下獲取大量線上行為記錄(例如穀歌搜索曆史)。

但AI對話是否屬於此種意義上的"自願披露"?既然眾多用戶將這些係統視為私人顧問而非搜索引擎,法律標準就應當與時俱進,以反映這種保密期待。AI企業掌握的私人數據量,已超越任何心理治療師或律師所能觸及的私密範疇,至今卻未承擔明確的法律保護責任。

“AI交互特權”應在三個方麵借鑒現有的法律特權。首先,為尋求谘詢或情緒疏導而與人工智能進行的交流,應受到保護,免於在法庭上被強製披露。用戶可以通過應用程序的設置來指定受保護的會話,或在法律取證階段主張特權,隻要對話的上下文支持這一主張。其次,該特權必須納入所謂的“警示義務”原則,即AI服務合理判定認為當事人對自己或他人構成迫在眉睫的威脅或者已造成實際傷害時,有義務報告。第三,必須為犯罪和欺詐行為設立例外。若AI被用於策劃或實施犯罪,相關對話記錄應在司法監督下作為證據調取。

按照這種邏輯,林德克內希特的案件同時揭示了這種保護的必要性與局限性。他關於香煙引發火災的提問,本質上等同於一次互聯網搜索,不應享有特權保護;但根據“AI交互特權”,他關於焚燒《聖經》的坦白則應受到保護——那既不是犯罪計劃,也不是迫在眉睫的威脅。

建立一種新的特權符合法律不斷適應新型信任關係的演進模式。心理治療師與病人之間的保密特權本身直到1996年才被正式承認,當時美國最高法院認定保密對心理治療具有重要價值。同樣的邏輯如今也適用於AI:坦誠交互帶來的社會效益,遠超過偶爾失去某些證據的代價。

若放任這些人機對話處於法律真空,將導致公民終日擔憂數字化自省可能某天成為呈堂證供。無論是與律師、治療師,還是與機器的私密交流——都必須享有免於恐懼國家窺探的自由。