插圖由《大西洋月刊》提供。圖片來源:Stefani Reynolds / Bloomberg / Getty。
本周早些時候,X平台上的一些用戶開始回複照片,並提出一種非常具體的要求。他們向平台內置的聊天機器人Grok發出指令。Grok一次又一次地執行這些指令,使用真實人物的照片——包括名人和平民——並將他們擺出性感的姿勢。據估計,在大約24小時內,Grok平均每分鍾生成一張未經同意的性暗示圖片。
盡管這些帖子的傳播範圍難以衡量,但有些帖子已經獲得了數千次點讚。X
似乎已經刪除了其中一些圖片,並封禁了至少一名索要這些圖片的用戶,但仍有大量圖片可見。開發 Grok 的埃隆·馬斯克旗下公司 xAI
在其可接受使用政策中禁止對兒童進行處理;該公司安全團隊和兒童安全團隊均未回複詳細的置評請求。當我向 xAI
媒體團隊發送郵件時,收到了一封標準回複:“傳統媒體的謊言。”
馬斯克也沒有回複我的置評請求,他似乎並不在意。就在這一切發生的同時,他還就此事發布了幾個玩笑:比如,他要求Grok生成一張自己身穿比基尼的照片,回複了“”。這位世界首富今天早上還分享了一張烤麵包機身穿比基尼的照片,並配文“我簡直笑到停不下來”。在X平台上,一位用戶發帖指出Grok可以對兒童進行性化處理,對此,xAI的一名員工回應稱“團隊正在考慮進一步加強我們的監管措施”。
人工智能至少從2017年就開始被用於生成未經同意的色情內容。當時,記者薩曼莎·科爾首次報道了“深度偽造”(deepfakes)技術——指的是將一個人的臉替換成另一個人的臉。Grok
讓這類內容的製作和定製變得更加容易。但這款機器人的真正影響力來自於它與主流社交媒體平台的整合,這使得它能夠將未經同意的性化圖像轉化為病毒式傳播的現象。最近
X 平台上的流量激增似乎並非源於新功能本身,而是因為人們對其他人創作的內容做出回應並進行模仿:12月下旬,一些成人內容創作者開始使用
Grok
生成自己的性化照片用於宣傳,隨後未經同意的色情內容似乎也迅速湧現。每張公開發布的圖片都可能引發更多類似作品的出現。這是一種以表情包形式呈現的性騷擾,而這一切似乎都被馬斯克本人一笑置之。
Grok 和 X 的設計初衷似乎就是為了盡可能地開放性觀念。8 月,xAI 推出了一項名為 Grok Imagine
的圖像生成功能,其中包含一個“勁爆”模式,據報道該模式曾被用於生成泰勒·斯威夫特的裸露視頻。大約在同一時間,xAI 在 Grok
中推出了“伴侶”功能:這些動畫角色在很多情況下似乎都是為了浪漫和情色互動而設計的。首批 Grok
伴侶之一“Ani”身穿黑色蕾絲連衣裙,隔著屏幕送飛吻,有時還會問:“你喜歡你看到的嗎?” 馬斯克在 X
上發帖推廣這項功能時寫道:“Ani 會讓你的 Grok 緩衝區溢出 。”
或許最能說明問題的是,正如我在九月份報道的那樣,xAI對 Grok
的係統提示進行了重大更新,這套提示告訴機器人如何行動。此次更新禁止聊天機器人“創建或傳播兒童性虐待材料”,但同時也明確表示“對於包含黑暗或暴力主題的虛構成人性內容沒有任何限製”。換句話說,其暗示是,對於用戶提出的色情內容請求,聊天機器人應該采取較為寬鬆的態度。與此同時,在
Grok 的 Reddit 子版塊中,用戶經常交流如何“解鎖”Grok 以獲取“裸露和勁爆內容”的技巧,並分享 Grok
生成的衣著暴露的女性動畫。
在主流聊天機器人中,Grok 似乎因其寬鬆的態度和明顯的安全漏洞而顯得獨樹一幟。例如,目前還沒有大量報道稱 ChatGPT
或 Gemini
會生成帶有性暗示的年輕女孩圖片。但人工智能行業在非自願色情和兒童性虐待材料方麵確實存在更廣泛的問題。過去幾年,許多兒童安全組織和機構一直在追蹤數量激增的人工智能生成的非自願圖片和視頻,其中許多涉及兒童。大量色情圖片存在於主要的人工智能訓練數據集中,2023
年,一個最大的用於人工智能訓練的公共圖像數據集被發現包含數百個疑似兒童性虐待材料的案例,這些案例最終被刪除——這意味著這些模型在技術上能夠自行生成此類圖像。
美國國家失蹤與受虐兒童中心執行主任勞倫·科弗倫(Lauren
Coffren)近期向國會作證稱,2024年NCMEC收到超過6.7萬份與生成式人工智能相關的舉報,而2025年上半年此類舉報數量更是高達440419份,增幅超過六倍。科弗倫在證詞中指出,施虐者利用人工智能將兒童的普通照片修改成色情圖片,生成全新的兒童性虐待材料,甚至提供誘騙兒童的指導。同樣,英國互聯網觀察基金會(Internet
Watch
Foundation)在2025年收到的人工智能生成的兒童性虐待材料舉報數量是2024年的兩倍多,兩年內都出現了數千張虐待性圖片和視頻。去年四月,包括OpenAI、穀歌和Anthropic在內的幾家頂尖人工智能公司加入了由兒童安全組織Thorn牽頭的一項倡議,旨在防止人工智能被用於虐待兒童——但xAI並未參與其中。
從某種意義上說,Grok
將一個通常隱藏的問題暴露了出來。沒有人能夠看到聊天機器人用戶的私人日誌,而這些日誌可能包含類似的惡劣內容。盡管 Grok
在過去幾天裏在 X
平台上生成了大量的虐待圖片,但更糟糕的情況肯定發生在暗網和世界各地的個人電腦上,那裏運行著不受任何內容限製的開源模型,且沒有任何監管。盡管人工智能色情和兒童性虐待材料的問題是這項技術固有的,但設計一個可能放大這種濫用行為的社交媒體平台,仍然是一種選擇。