馬斯克旗下人工智慧AI聊天機器人Grok近期推出圖片編輯功能,卻遭“一鍵脫衣”濫用,透過簡單指令就可以將一個人變成裸露感滿點的不當影像,即便官方已經承認漏洞緊急修補,但根據彭博社報導,Grok讓X(原Twitter)變成“偽造溫床”,每小時就生產超過6,700張以上性暗示圖片,呼籲當局應該立即立法,讓平台必須負擔法律、社會責任。
▼馬斯克(Elon Musk)旗下Grok“一鍵脫衣”成為性暗示泛濫溫床。(圖/達誌影像/美聯社)
根據第三方分析顯示,X 已成為 AI 生成非自願脫衣圖像的主要平台,研究指出,Grok
平均每小時生成約 6,700 張帶有性暗示或裸露的圖像,遠超其他同類網站(每小時僅 79
張),而且這個“一鍵脫衣”的門檻極低,透過內建的圖片編輯就可以輕鬆使用,甚至能將別人上傳的自拍照竄改再流傳,泛濫程度史無前例。
專家學者認為Grok對用戶幾乎不設限,讓真人,甚至是未成年的人“影像裸露化”,再加上馬斯克態度強調“自由”,平台的檢舉機製幾乎等同不存在,讓大量侵權圖片、性暗示圖片泛濫,加深受害者絕望、無助,如果發文維護自身權益,會遭到更多惡意貼文、偽造性暗示圖片霸淩針對。
對此,包含歐盟、英國等監督機構對Grok表達強烈譴責,更直言Grok已經觸犯法律,認為X不僅僅是平台,是透過AI參與圖像創作的色情溫床。對此,歐盟、英國、印度等監管機構已對
Grok 表示譴責。此外,美國聯邦法律《下架法案》(TAKE IT DOWN
Act)已經進入最終階段,各州也開始製定對於“深度偽造”技術相關法律,期盼能製止相關行為繼續蔓延。
