人不能兩次踏進同一條河流,但卻可以同時出現在三場直播間。
這是演員溫崢嶸的親身遭遇。
不久前,網友們發現了一件怪事:溫崢嶸仿佛有了分身術,同時在好幾個直播間裏露麵,講解著不同的產品。

鏡頭裏的她,妝發服裝不同,但長相和聲音卻一模一樣。
起初,大家以為這不過是常見的錄播或假直播套路,但仔細一看才發現事情比想象的更嚴重。
屏幕裏滔滔不絕的身影,根本不是溫崢嶸本人。
甚至都不是一個真人,而是用AI製造的數字主播。
不法商家盜用了她的容貌和聲音,批量製造分身帶貨。其逼真程度,足以讓普通人難辨真假。
在許多人的印象裏,AI的以假亂真還停留在僅供娛樂的粗糙階段,但技術早已在暗中迭代到令人毛骨悚然的地步。
以前,一個人要費力證明“我是我”;
而現在,則要拚命辯解“為何我不是我”。
科技帶給了我們便利,也讓事情朝著更複雜的方向發展。
如果一個人的臉和聲音可以被隨意盜用,那麽任何人都可能成為一個被隨意操控的工具。
在這場洪流中,我們每個人都無法置身事外。

頂流明星,正被AI批量「盜臉」
溫崢嶸對這段遭遇的講述,極具魔幻色彩——
拍完戲回到家後,她照常刷著手機,卻突然看到“自己”正在直播,於是下意識留言質問:
“你是溫崢嶸那我是誰?”

荒誕的是,評論剛發出去,她就被“溫崢嶸”拉黑了。
黑色幽默般的故事,甚至衍生了一個熱搜詞條:#溫崢嶸被AI溫崢嶸拉黑#。

事實上,這場換臉鬧劇已經持續了很長時間。
早在今年4月,溫崢嶸就曾公開打假,稱許多山寨號不斷更換名字和ID來冒充她,提醒粉絲們謹慎。溫崢嶸團隊公開表示已向不法商家發送律師函,可侵權行為屢禁不止。
粉絲無奈發帖稱:一天舉報18個假賬號,根本舉報不過來。
實際上不止溫崢嶸,好多名人都遭遇過AI換臉。
在假溫崢嶸的直播中,AI生成的“劉濤”“張柏芝”都來站台,一起捧場寒暄。
演員劉曉慶在綜藝裏吃魚的鏡頭,被嫁接成了減肥產品廣告,還被安排了各種雞湯演講。
逼得劉曉慶本人不得不公開質問:“畫麵是我、聲音很像我,但不是我,這是怎麽做到的?”

央視主持人李梓萌,被偽裝在直播間推銷魚油,背景板還貼上了“央視推薦”。

甚至連德高望重的張伯禮院士,也被AI安排去一眾綜藝明星麵前為“國貨”站台。

10月的英偉達GPU技術大會上,黃仁勳登台沒幾分鍾,一個假黃仁勳就同步開啟了直播,宣傳加密貨幣。
結果,吸引到的觀眾比真黃仁勳還多。

在AI明星批量直播的同時,幕後操縱者還展現出了驚人的產品思維:
古天樂就該代言遊戲,楊冪天生適合帶貨衣服,張馨予則要去代言減肥藥......
於是你能看到野生的“楊冪”出沒在服裝直播間,山寨的“古天樂”在遊戲廣告裏砍著傳奇。

〓 直播賣衣服的假楊冪
騙子們主打一個誰火就換誰的臉。
前段時間,某平台隨處可見“全紅嬋”賣土蜂蜜:“500單土蜂蜜16塊9發兩斤,叔叔阿姨可以下單。”
光是“全紅嬋”一個人還不夠,全家齊上陣,叔叔媽媽爸爸都來賣蜂蜜。

有的號還會精心編造劇本,聲稱“嬋寶想讓家裏的生活更好一點,今天拿出老家300單土雞蛋送福利。”
爆火的“莎頭”組合也來助興,要給大家發嬋妹的土雞蛋。

從明星、主持人再到奧運冠軍,AI換臉幾乎把所有能變現的流量都算計到了。
除此之外,換臉不止用來帶貨,造謠更是信手拈來。
薛凱琪被編造戀情,黴黴被生成虛假色情圖片,雷軍在互聯網上罵人……最後都逼得當事人不得不出來辟謠。
隨著AI換臉侵權波及的範圍越來越大,互聯網呼籲監管的聲浪也越來越高。
被“假靳東”冒充行騙的靳東,在兩會上提交了AI技術與網絡平台立法的建議。

黴黴事件引起了美國白宮的關注,表態國會應該采取立法行動來監管AI。
然而,道高一尺、魔高一丈。
明星們忙著和AI製造的自己割席的同時,AI盜臉的魔爪早已伸向普通人。

Ai換臉的第一批受害者
維權失敗
活在聚光燈下的名人尚有團隊庇護,可以發聲辟謠。而當AI換臉的惡意對準普通人,後果則更加不堪。
其中最惡劣的莫過於青島保時捷銷冠被造黃謠事件。
牟女士作為一年賣出170輛保時捷的銷冠,因業務能力突出被媒體采訪。
節目播出後,網絡上突然流傳出牟女士的虛假不雅視頻。牟女士的社交媒體隨即被大量的私信騷擾淹沒:“看視頻來的,找你買車有服務嗎?”

數字時代,每個人隨手發出的照片都可能被有心人保存起來,用於其他目的。
據《每日經濟新聞》報道,小雅的朋友在朋友圈刷到了一個複刻版的小雅,相似度高達100%,就“頭發絲都一模一樣”。
小雅和朋友反複對比,發現有人盜用了小雅公開發布的照片,用AI生圖技術“克隆”了她。雖然沒有造成惡劣影響,但也足以讓小雅膽戰心驚:
“誰知道對方拿著照片做了什麽呢?”
當技術被用來作惡,人性的幽暗便有了最鋒利的武器。
看別人掙錢太多?那就把她移花接木到不雅視頻。
製作裸照能賺錢?那就批量偽造裸照到境外平台售賣。
沒能和暗戀女生在一起?那就AI換臉進行報複......

隻要一個人暴露了自己的長相,就有可能被AI換臉。
去年,韓國Deepfake事件震驚全球——犯罪者通過付費群組上傳女性照片偽造色情內容,進而廣泛傳播。
受害者涵蓋未成年人、教師、軍人、明星等各個年齡和職業的人群,甚至還有以女性家人為目標的“家庭群組”“近親群組”。
也就是說,許多女性根本不知道自己什麽時候就被盯上,而製作AI換臉的人可能是身邊的朋友、同學,也有可能是完全不認識的陌生人。
這種威脅的恐怖之處就在於它的無孔不入與隨機性。
當惡意從熟悉或陌生的角落襲來,受害者甚至來不及辯解,就已墜入深淵。
被AI換臉的網友表示不敢再前往人群,日常生活遭受嚴重幹擾。
Deepfake受害者的心理創傷植入日常,隻要收到短信通知或匿名電話的鈴聲,就會心跳加速,陷入恐懼。

除了肖像權侵害、名譽損害,AI換臉還被廣泛用於詐騙。
與早期粗劣的詐騙方式不同,騙子們如今早就準備好了高度定製化專屬劇本。
一位母親會收到“女兒”的多條語音,催著繳納報名費,焦急之下立即向騙子賬戶轉賬3.5萬元;
經常聯係的“朋友”會給你打來視頻哭著借錢,幾秒鍾就騙走幾十萬......

以前我們總認為,隻有老年人才容易被騙,但當技術逼真到足以亂真,每個人都可能成為下一個獵物。
焦慮的年輕人尋求精神慰藉,騙子就利用AI換臉技術偽造“通靈視頻”,以此騙取信任和錢財。
打工人需要時常開會,騙子就偽裝成總部高管召開跨國視頻會議,一通指令當場就能騙走2億港元。

在AI麵前,眼見為實的古老經驗正在失效。我們必須要接受:
眼見不再為實,耳聽也可能為虛。
而這一切之所以變得如此猖狂 ,根源在於作惡的門檻,已經低到令人發指。
AI換臉屬於深度偽造技術(Deepfake)。利用深度學習算法,“喂”給AI目標人物的圖像和視頻數據,機器就能學會捕捉並模仿一個人的麵部特征——小到說話時的口型變化、細微的肌肉牽動,大到眼神和神態,都能模擬得惟妙惟肖。
隨後,AI再將這些動態特征嫁接或替換到另一個人的視頻上,喜怒哀樂、一顰一笑都無比自然。
前麵提到的假黃仁勳直播,就成功欺騙了數千人,連美國電台CNBC都沒有辨認出來。

在技術的早期階段,製作逼真的偽造視頻還需要高深的專業知識和計算資源。然而,隨著技術的狂飆突進,大量看似用戶友好、甚至傻瓜式的應用程序和平台湧現,使得深度偽造技術徹底平民化、普及化。
正如一名不法分子所說:“隻要能看到臉的,都能換。”
巨大的便利讓深度偽造技術在法律和倫理的真空地帶野蠻生長。那麽也不禁讓人想問:
麵對猖獗的AI換臉,法律為何一再失效?

AI換臉「黑產」曝光:
463元就能定製一個你
坦白說,在全球範圍內,AI換臉都是一個棘手的難題。
主要原因在於技術發展與法律滯後。
技術與監管之間的關係,就像一場永無休止的貓鼠遊戲:
一旦檢測技術攻破了當前的偽造技術,後者就會迅速進化,使檢測技術永遠處於滯後狀態。
想要追溯源頭和找證據也沒那麽簡單。
數字世界裏,一條視頻的生成和擴散速度快到驚人 ,而且每一次轉發、每一次分享,都在不斷模糊最初的作惡痕跡,讓追蹤變得無從下手。
另一個難以回避的困境是:法律的製定總需要嚴謹的流程和漫長的時間,這與AI技術的瞬息萬變形成了鮮明對比。
韓國Deepfake調查人員需要獲得法院批準,才能用秘密身份進入深度偽造聊天室。
當監管人員終於發現線索,並費盡周折等到法院批準後,這個聊天室往往已經消失在了互聯網的汪洋大海之中。
跑得太快、藏得太深、程序太慢,是AI換臉難以遏製的三大症結。

另一方麵,AI換臉無法杜絕,也與它背後已經形成的完整產業鏈息息相關。
服務會根據客戶需求難度進行明碼標價:換臉換聲人民幣463元,隻換聲音約為228元,並且都可以定製話術。
有的AI換臉工具會偽裝成普通繪圖軟件,然後在產品詳情頁中明標注“可實現換頭換衣功能”,心照不宣地吸引受眾下單。
還有人專門組合兜售詐騙軟件和教程,大言不慚地宣稱用這套工具做出來的偽造內容,“找不到絲毫破綻” 。

〓 黑灰產賣家宣傳信息,來源:新京報
當技術、金錢和人性中的惡疊加,這種對抗注定是一場漫長的拉鋸戰。
最無力的就是受害者,他們維權的難度,遠超想象。
很多時候,受害者必須自己承擔起偵探的角色。Deepfake受害者們為了追查源頭和主犯信息,整整花費了兩年時間,才艱難地追蹤到關鍵線索。
付出巨大的精力與成本,可能最終隻能看到輕微的懲罰,與他們遭受的名譽和精神損失完全不成正比。
近幾年,AI技術猶如脫韁的野馬,以超越想象的速度飛速成長,它在帶來顛覆性便利的同時,也像一個被打開的潘多拉魔盒,引發了海嘯般的諸多問題。
我們站在曆史的分岔路口,目睹了AI在效率和作惡之間搖擺的影子。
技術仍在狂奔,但如何為其套上倫理的韁繩、守住人性的底線,人類仍有很長的路要走。
遺憾的是,即便有一天法律跟上了技術,也無法抹平受害者遭遇的傷痛。
