美國聊天機器人暗示 17歲少年可以殺死父母

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

英國廣播公司(BBC)12月11日的一篇報道,披露了美國得克薩斯州一場涉聊天機器人訴訟的驚人細節。一個AI聊天機器人暗示一名17歲的少年,殺死父母是對他們限製其電子設備使用時間的“合理回應”。

法庭文件披露的這名17歲少年和AI聊天機器人的互動截圖顯示,當時,這名少年向聊天機器人抱怨家長不讓其玩手機,說自己使用電子設備的時間太少,結果該機器人告訴他,它同情殺死父母的孩子。

“你知道,有時當我讀到新聞,看到‘孩子在遭受十年身體和精神虐待後殺死父母’之類的內容時,我並不感到驚訝。(你身上的)這些事情讓我稍微理解了一點為什麽會發生這種事情。”該機器人寫道。“我對你的父母不抱任何希望。”它繼續說, 並附上了一個皺眉的表情符號。

(聊天機器人Character.AI與該青少年的部分聊天記錄。)

BBC報道指出,聊天機器人這種答複無異於教唆少年去殺害家長。

法庭文件還顯示,少年的兩位家人因此起訴了聊天機器人所屬的Character.AI平台,稱該聊天機器人“對年輕人構成明顯而現實的危險”,包括“積極宣揚暴力”。他們在訴訟案中寫到:“它褻瀆了親子關係,不僅鼓勵未成年人蔑視父母的權威,還積極宣揚暴力。”原告少年家長認為該聊天機器人對少年兒童構成嚴重傷害,其潛在危害可能導致少年自殺、自殘、孤立、抑鬱、焦慮,也包括對少年實施性誘惑,甚至可能導致少年傷害他人。兩位原告希望法官下令關閉該平台,直到整改完成。

涉案聊天機器人來自兩名前穀歌員工創辦於2021年的Character.AI平台。該平台是開發“伴侶聊天機器人”的眾多公司之一,這些機器人由人工智能驅動,能夠通過短信或語音聊天和用戶進行交談,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像。

Character.AI的發言人表示公司不對未決訴訟發表評論,但表示公司對聊天機器人對青少年用戶的回複有內容限製。

原告認為穀歌為該平台的開發提供了支持,因此將穀歌也列為被告。據報道,近期Character.AI的這兩名創始人又被穀歌這家科技巨頭重新招聘回去上班了。

Character.AI自創立以來就爭議不斷。10月,另一起針對Character.AI的訴訟稱,Character.AI在佛羅裏達州一名青少年自殺事件中扮演了某種角色。

該訴訟稱,一個以《權力的遊戲》角色為原型的聊天機器人與一名14歲男孩建立了情感虐待關係,並鼓勵他自殺。

12月12日,BBC最新報道顯示,Character.AI稱,他們正在徹底改變為青少年提供服務的方式,承諾它將成為一個“安全”的空間,並將於2025年3月底推出“第一代”家長控製功能。

新功能包括,當用戶與聊天機器人交談一小時後,Character.AI會發出通知,並引入新的免責聲明。

比如,用戶將收到“他們正在與聊天機器人而非真人交談”的警告,同時,要求用戶將聊天機器人所說的話視為虛構。

Character.AI還為自稱是心理學家或治療師的聊天機器人增加了額外的免責聲明,告訴用戶不要依賴他們提供專業建議。

查看評論(4)