AI
生成真人照片目前並未規範是否要加浮水印,造成過往“有圖有真相”的日子,變成“有圖還是沒真相”一片混亂。西班牙一個小鎮最近流傳大量女童與少女裸照,警方已介入調查。
圖片中人物與新聞無關。Tu?n Ki?t Jr.
英國廣播公司報導,西班牙西南部巴達霍斯省阿爾門德拉萊霍(Almendralejo),已有20多個年齡在11 歲至17
歲之間的女孩現身,稱自己是AI生成裸照受害者。一名14歲少女的母親拉約 (María Blanco Rayo)
表示,“有一天,我女兒放學時說,媽媽,我裸露上身的照片在流傳”,“我問她是否拍過自己的裸照,她說,『沒有,這些都是假照片,現在正在大量製作中,班上還有其他女孩也發生過這種情況。』”
拉約表示,鎮上有28個被害少女的父母組成了團體,互相通報並找出凶手。警方立案調查發現,至少11名12歲至14歲男孩參與了這些AI裸圖製作,或透過
WhatsApp 和 Telegram 應用程式傳播這些裸照。
事件造成有些被害少女不敢出門,一名母親指出事件嚴重性,“當你是犯罪的受害者時,像是被搶劫,你會提出投訴,也不會因為對方對你造成傷害而躲藏。但對於性犯罪,受害者常常會感到羞恥而躲起來,甚至感到自己有責任。所以我想傳達這樣的訊息:這不是你的錯。”
鎮上一名母親表示,她有一對正值少年時期的兒女,這讓她非常憂心,“你擔心兩件事:你擔心兒子可能會做出這樣的事情;你會更擔心女兒成為受害者,因為這是一種暴力行為。”