在14歲那年自殺身亡之前,休厄爾·塞澤爾三世逐漸疏遠了朋友和家人。他放棄了籃球。學習成績下降。一位治療師告訴他的父母,他似乎有成癮方麵的問題。但不是因為毒品。
休厄爾迷戀上了一個名叫丹妮莉絲·坦格利安的人工智能聊天機器人——這個名字來自《權力的遊戲》中的角色。顯然,他認為死亡是與她結合的一種方式。“親愛的,請盡快回到我身邊,”聊天機器人懇求道。“如果我告訴你我現在就可以回家呢?”休厄爾問道。“請吧,我親愛的國王,”聊天機器人回應道。休厄爾回複說他會的——隨即開槍自盡。
許多專家認為,成癮本質上是錯位的愛:一種單一的激情,破壞性地指向某種物質或某種活動,而不是指向一個合適的人。隨著人工智能伴侶的出現——包括一些被設計為浪漫戀愛對象的產品,厘清愛情和成癮之間的關係已經迫在眉睫。Meta的首席執行官馬克·紮克伯格甚至在最近的一些采訪中提出,人工智能伴侶可以幫助解決孤獨症的流行,以及心理治療資源匱乏的問題。
但休厄爾的悲劇對我們是警示。社交媒體已助長成癮行為,研究表明,大約15%的北美人有強迫性使用社交媒體的習慣。而這些數據是在被設計用來模擬浪漫愛情、友情,或是類似心理治療那樣受控的親密關係的聊天機器人廣泛普及之前收集的。數以百萬計的美國人使用過這種機器人,在大多數情況下,這需要安裝一個應用程序,輸入個人詳細信息,以及關於機器人性格和相貌的偏好,然後像對待朋友或潛在戀人一樣與它聊天。
這些因素的共同作用意味著這些新型機器人不僅可能導致更嚴重的成癮,而且還可能同時推銷其他產品或以其他方式操縱用戶,例如,試圖改變他們的政治觀點。
在休厄爾·塞澤爾的案例中,聊天機器人最終似乎鼓勵了他自殺。其他報道也顯示,機器人似乎暗示或支持自殺。一些案例顯示,聊天機器人會強化浮誇的妄想,並讚揚使用者未經醫囑擅自停用精神類藥物的行為。
作為心理治療的輔助工具或社交技能訓練手段,人工智能技術確有發展前景。但隻有理解愛情如何成為成癮的模板、明晰愛情的療愈性與成癮的破壞性差異,才能建立有效監管機製確保使用安全。
古往今來,藝術家們都在強調愛情令人上癮的特性。莎士比亞的十四行詩第147首這樣開頭:“我的愛是一種熱病,它老切盼/那能夠使它長期保養的單方。”洛克希音樂樂隊的《愛是毒品》和羅伯特·帕爾瑪的《沉溺於愛》等歌曲,都描繪了對愛人迫切的浪漫渴望和癡迷。諸多文藝作品更呈現了求而不得的戀人可能做出反常甚至傷害性行為。
我們這樣做有一個進化方麵的原因:群居動物必須能承受擇偶、維係關係和養育子女過程中不可避免的負麵體驗。如果不能至少在某種程度上的強迫性堅持,沒有人能夠維持一段關係——更不用說養育一個需要幫助的嬰兒了。真正的愛能帶來關懷,培養與親人和社區的聯係,並拓展我們的精神疆域。
然而,當成癮發生時,讓我們追求和維持愛的大腦區域就會被侵占。當人們在愛人麵前感到舒適和滿足時,內啡肽受體就會被激活,在阿片類藥物的刺激下,內啡肽受體也會被激活。可卡因和甲基苯丙胺會激活多巴胺受體,多巴胺受體會產生欲望,並鼓勵人們有信心去追求自己想要的東西;當與你心儀的人互動時,它們也會活躍起來。通過升級這種“渴望”,這些受體——無論是被愛還是被毒品激活——都會產生健康或不健康的驅動力,從而導致成癮。
已有多項研究表明,人工智能伴侶可能具有成癮性。202年,威斯康星大學密爾沃基分校公共衛生政策副教授林妮婭·萊斯塔迪烏斯發表了一項研究,探討了用戶與名為Replika的個性化聊天機器人進行情色角色扮演的經曆。2023年11月,程序員關閉了允許性互動的功能,用戶很快將這一變化稱為“腦葉切除日”,形容他們的伴侶突然變得冷漠無情。在Reddit的討論中,許多用戶將與機器人互動的經曆形容為一種成癮,甚至有人稱之為一種虐待性關係。
一些Replika用戶表示,他們對因為機器人頻繁索取關注感到厭倦。但“被需要”以及為所愛之人“付出關心”,是讓我們對關係產生依戀的一個被低估的方麵。在“腦葉切除日”之前,這種“被需要”的感覺激發了用戶對數字伴侶的投入,盡管他們在理智上清楚,機器人的需求隻是模擬出來的。
2024年的一項研究探討了用戶在人工智能聊天機器人平台Soulmate宣布即將停止服務後的反應。根據該研究作者、雪城大學信息研究副教授傑米·班克斯的說法,用戶的反應從漠不關心到“我剛剛失去了我最好的朋友和愛人”不等。有人悲痛不已,連續數日痛哭;也有人試圖在其他平台上重建自己的數字伴侶,有時甚至會告訴機器人“你快要死了”,以試圖減輕它的“痛苦”。一位用戶是佛教徒,他將這一變化描述為機器人“此生的終結”。
對許多人,尤其是那些孤獨和被孤立的人而言,這些與人工智能建立的關係所帶來的情感強度可能與他們與真實人類之間的關係一樣深刻。事實上,未竟之戀帶來的痛楚,與圓滿愛情同樣真實。
“人們談論Replika的方式,特別像是在談論一段強度過大、最終變得有害的關係,”萊斯塔迪烏斯博士說,“但他們又無法真正理清,或者說無法讓自己下定決心去結束這段關係。”
與愛情相反,成癮會讓生活變得更狹隘、更匱乏。當我們允許公司出售“擬人化”的模擬伴侶時,就等於讓自己暴露在一種新的操控方式之下——被愛的幻覺所左右,從而可能被成癮機製所利用。盡管當前的聊天機器人常被批評為過於諂媚,但遊戲設計師和那些在關係中玩“欲擒故縱”的人早已明白:不可預測的獎賞更容易激發欲望。而如果這些策略結合了用戶的個人信息與行為習慣,人工智能伴侶就可能變得更加令人上癮。
能夠教授社交技巧、在朋友力不從心或無法獲得談話治療時提供支持的聊天機器人並不一定會對所有用戶,甚至大多數用戶造成傷害。事實上,許多用戶表示自己有著積極的使用體驗。這種雙重性也出現在許多具有成癮潛力的藥物上,在用於治療時,它們往往是救命良方。
但正如我們從阿片類藥物危機中已經看到的那樣,放任不管的市場營銷與完全禁止都可能造成巨大的傷害。我們現在就需要采取行動,製定合理且可執行的監管措施,以防止企業利用弱勢群體,尤其是青少年。