進入“眼見不再為實”的可怕時代

遠遠的霧 (2026-03-09 06:38:01) 評論 (6)

在AI時代,“眼見為實”正在失去意義。我們正步入一個真假難辨的渾水區。最近看到一個報道,著名演員王勁鬆在微博上發出指控,他在一段AI合成的虛假視頻中,被人塑造成了某個財富平台的推銷員,而該項目早已被監管部門警告為涉嫌非法集資。

這種現象並非孤例,人們也可以刷到“靳東”推薦理財、“李連傑”代言保健品。那一張張臉背後的真人早已被掉包。這種亂象不僅在中國肆虐,在美國視頻平台YouTube上,我也經常看到類似的AI名人視頻層出不窮:畫麵中的名人動作自然,雖然帶有某種微妙的麵目機械重複感,但說話的口型與聲音契合得天衣無縫。他們討論著當下熱門的新聞話題,但常常是捕風捉影,甚至完全是胡編亂造。這種利用人工智能產生的虛假影像,正成為全球監管機構麵臨的巨大挑戰。

在中國,這場規模驚人的AI盜用亂象中,被盜形象的受害者名單正變得越來越長,從演藝界的張國立、於和偉,到體育界的姚明、全紅嬋,無一幸免。你越是名人,越可能成為受害者。

最魔幻的一幕發生在演員溫崢嶸身上。2025年她竟同時“現身”三個不同直播間賣化妝品,甚至在她拍戲收工卸妝時,還能刷到“自己”正在直播間賣力直播帶貨。當她衝進直播間質問真偽那一刻,對方竟能手速飛快地將她拉黑。這種侵權已從簡單的“換臉”進化到了全方位複刻時代,AI不僅能複刻麵部細節,連微表情、行走步態甚至聲音韻律都能精準合成,以至於王勁鬆坦言連他的家裏人都分不清真假王勁鬆了。

AI技術的演進速度驚人。2017年的Deepfake還屬於“一眼假”的階段,一眼就能識破“冒牌貨”。而到了2022年後,僅需一張照片和幾秒語音即可生成肉眼難辨的虛假視頻了。目前,這種侵權行為已形成龐大的黑色產業鏈,中國電商平台上到處可見“AI影音修改”服務,且明碼標價,1分鍾“魔改”視頻僅需幾百元,甚至可以規避平台的“AI生成”提示。

麵對這種技術對抗,國內平台治理陷入了前所未有的困境。侵權者利用形象微調、跳幀等手段規避審核,並專挑淩晨時段發布視頻來打時間差。盡管各大平台已建立肖像保護庫並處置了上萬個違規賬號,但“換馬甲”再露臉的成本極低,導致治理工作疲於奔命。更深層的問題在於平台對流量的追求,名人的高熱度視頻往往意味著巨大的流量利益,如果平台僅被動地被“通知”,然後“刪除”,顯然已無法阻擋造假技術的狂潮。

中國的法律也在試圖跟上技術。中國《民法典》已明確保護自然人的肖像與聲音,2025年施行的標識辦法也要求AI內容必須顯著標注。然而在司法實踐中,如何量化相似度、如何界定多方主體的責任權重、如何降低普通人的維權成本,依然是亟待解決的難題。

在這個“眼見不再為實”的時代,人們麵臨的不僅是明星肖像被盜用的煩惱,更是每個人數字身份的安全危機。正如王勁鬆的案例所示,如果這種盜用身份淪為普遍的犯罪手段,那就沒有任何人能免受其害了。看來風險防控技術必須加大力度了。這不僅是為了保護名人的臉,更是為了保護每一個普通人在數字時代免受被隨意改頭換麵。

2026.3.9 於美國