簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
您的位置: 文學城 » 新聞 » 焦點新聞 » 新興“詐騙三件套”批量湧入 AI正偷走每個人的臉

新興“詐騙三件套”批量湧入 AI正偷走每個人的臉

文章來源: 鳳凰WEEKLY 於 2025-11-19 09:26:43 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

人不能兩次踏進同一條河流,但卻可以同時出現在三場直播間。

這是演員溫崢嶸的親身遭遇。

不久前,網友們發現了一件怪事:溫崢嶸仿佛有了分身術,同時在好幾個直播間裏露麵,講解著不同的產品。

新興“詐騙三件套”批量湧入 AI正偷走每個人的臉

鏡頭裏的她,妝發服裝不同,但長相和聲音卻一模一樣。

起初,大家以為這不過是常見的錄播或假直播套路,但仔細一看才發現事情比想象的更嚴重。

屏幕裏滔滔不絕的身影,根本不是溫崢嶸本人。

甚至都不是一個真人,而是用AI製造的數字主播。

不法商家盜用了她的容貌和聲音,批量製造分身帶貨。其逼真程度,足以讓普通人難辨真假。

在許多人的印象裏,AI的以假亂真還停留在僅供娛樂的粗糙階段,但技術早已在暗中迭代到令人毛骨悚然的地步。

以前,一個人要費力證明“我是我”;

而現在,則要拚命辯解“為何我不是我”。

科技帶給了我們便利,也讓事情朝著更複雜的方向發展。

如果一個人的臉和聲音可以被隨意盜用,那麽任何人都可能成為一個被隨意操控的工具。

在這場洪流中,我們每個人都無法置身事外。



頂流明星,正被AI批量「盜臉」

溫崢嶸對這段遭遇的講述,極具魔幻色彩——

拍完戲回到家後,她照常刷著手機,卻突然看到“自己”正在直播,於是下意識留言質問:

“你是溫崢嶸那我是誰?”



荒誕的是,評論剛發出去,她就被“溫崢嶸”拉黑了。

黑色幽默般的故事,甚至衍生了一個熱搜詞條:#溫崢嶸被AI溫崢嶸拉黑#。



事實上,這場換臉鬧劇已經持續了很長時間。

早在今年4月,溫崢嶸就曾公開打假,稱許多山寨號不斷更換名字和ID來冒充她,提醒粉絲們謹慎。溫崢嶸團隊公開表示已向不法商家發送律師函,可侵權行為屢禁不止。

粉絲無奈發帖稱:一天舉報18個假賬號,根本舉報不過來。

實際上不止溫崢嶸,好多名人都遭遇過AI換臉。

在假溫崢嶸的直播中,AI生成的“劉濤”“張柏芝”都來站台,一起捧場寒暄。

演員劉曉慶在綜藝裏吃魚的鏡頭,被嫁接成了減肥產品廣告,還被安排了各種雞湯演講。

逼得劉曉慶本人不得不公開質問:“畫麵是我、聲音很像我,但不是我,這是怎麽做到的?”



央視主持人李梓萌,被偽裝在直播間推銷魚油,背景板還貼上了“央視推薦”。



甚至連德高望重的張伯禮院士,也被AI安排去一眾綜藝明星麵前為“國貨”站台。



10月的英偉達GPU技術大會上,黃仁勳登台沒幾分鍾,一個假黃仁勳就同步開啟了直播,宣傳加密貨幣。

結果,吸引到的觀眾比真黃仁勳還多。



在AI明星批量直播的同時,幕後操縱者還展現出了驚人的產品思維:

古天樂就該代言遊戲,楊冪天生適合帶貨衣服,張馨予則要去代言減肥藥......

於是你能看到野生的“楊冪”出沒在服裝直播間,山寨的“古天樂”在遊戲廣告裏砍著傳奇。



〓 直播賣衣服的假楊冪

騙子們主打一個誰火就換誰的臉。

前段時間,某平台隨處可見“全紅嬋”賣土蜂蜜:“500單土蜂蜜16塊9發兩斤,叔叔阿姨可以下單。”

光是“全紅嬋”一個人還不夠,全家齊上陣,叔叔媽媽爸爸都來賣蜂蜜。



有的號還會精心編造劇本,聲稱“嬋寶想讓家裏的生活更好一點,今天拿出老家300單土雞蛋送福利。”

爆火的“莎頭”組合也來助興,要給大家發嬋妹的土雞蛋。



從明星、主持人再到奧運冠軍,AI換臉幾乎把所有能變現的流量都算計到了。

除此之外,換臉不止用來帶貨,造謠更是信手拈來。

薛凱琪被編造戀情,黴黴被生成虛假色情圖片,雷軍在互聯網上罵人……最後都逼得當事人不得不出來辟謠。

隨著AI換臉侵權波及的範圍越來越大,互聯網呼籲監管的聲浪也越來越高。

被“假靳東”冒充行騙的靳東,在兩會上提交了AI技術與網絡平台立法的建議。



黴黴事件引起了美國白宮的關注,表態國會應該采取立法行動來監管AI。

然而,道高一尺、魔高一丈。

明星們忙著和AI製造的自己割席的同時,AI盜臉的魔爪早已伸向普通人。



Ai換臉的第一批受害者

維權失敗

活在聚光燈下的名人尚有團隊庇護,可以發聲辟謠。而當AI換臉的惡意對準普通人,後果則更加不堪。

其中最惡劣的莫過於青島保時捷銷冠被造黃謠事件。

牟女士作為一年賣出170輛保時捷的銷冠,因業務能力突出被媒體采訪。

節目播出後,網絡上突然流傳出牟女士的虛假不雅視頻。牟女士的社交媒體隨即被大量的私信騷擾淹沒:“看視頻來的,找你買車有服務嗎?”



數字時代,每個人隨手發出的照片都可能被有心人保存起來,用於其他目的。

據《每日經濟新聞》報道,小雅的朋友在朋友圈刷到了一個複刻版的小雅,相似度高達100%,就“頭發絲都一模一樣”。

小雅和朋友反複對比,發現有人盜用了小雅公開發布的照片,用AI生圖技術“克隆”了她。雖然沒有造成惡劣影響,但也足以讓小雅膽戰心驚:

“誰知道對方拿著照片做了什麽呢?”

當技術被用來作惡,人性的幽暗便有了最鋒利的武器。

看別人掙錢太多?那就把她移花接木到不雅視頻。

製作裸照能賺錢?那就批量偽造裸照到境外平台售賣。

沒能和暗戀女生在一起?那就AI換臉進行報複......



隻要一個人暴露了自己的長相,就有可能被AI換臉。

去年,韓國Deepfake事件震驚全球——犯罪者通過付費群組上傳女性照片偽造色情內容,進而廣泛傳播。

受害者涵蓋未成年人、教師、軍人、明星等各個年齡和職業的人群,甚至還有以女性家人為目標的“家庭群組”“近親群組”。

也就是說,許多女性根本不知道自己什麽時候就被盯上,而製作AI換臉的人可能是身邊的朋友、同學,也有可能是完全不認識的陌生人。

這種威脅的恐怖之處就在於它的無孔不入與隨機性。

當惡意從熟悉或陌生的角落襲來,受害者甚至來不及辯解,就已墜入深淵。

被AI換臉的網友表示不敢再前往人群,日常生活遭受嚴重幹擾。

Deepfake受害者的心理創傷植入日常,隻要收到短信通知或匿名電話的鈴聲,就會心跳加速,陷入恐懼。



除了肖像權侵害、名譽損害,AI換臉還被廣泛用於詐騙。

與早期粗劣的詐騙方式不同,騙子們如今早就準備好了高度定製化專屬劇本。

一位母親會收到“女兒”的多條語音,催著繳納報名費,焦急之下立即向騙子賬戶轉賬3.5萬元;

經常聯係的“朋友”會給你打來視頻哭著借錢,幾秒鍾就騙走幾十萬......



以前我們總認為,隻有老年人才容易被騙,但當技術逼真到足以亂真,每個人都可能成為下一個獵物。

焦慮的年輕人尋求精神慰藉,騙子就利用AI換臉技術偽造“通靈視頻”,以此騙取信任和錢財。

打工人需要時常開會,騙子就偽裝成總部高管召開跨國視頻會議,一通指令當場就能騙走2億港元。



在AI麵前,眼見為實的古老經驗正在失效。我們必須要接受:

眼見不再為實,耳聽也可能為虛。

而這一切之所以變得如此猖狂 ,根源在於作惡的門檻,已經低到令人發指。

AI換臉屬於深度偽造技術(Deepfake)。利用深度學習算法,“喂”給AI目標人物的圖像和視頻數據,機器就能學會捕捉並模仿一個人的麵部特征——小到說話時的口型變化、細微的肌肉牽動,大到眼神和神態,都能模擬得惟妙惟肖。

隨後,AI再將這些動態特征嫁接或替換到另一個人的視頻上,喜怒哀樂、一顰一笑都無比自然。

前麵提到的假黃仁勳直播,就成功欺騙了數千人,連美國電台CNBC都沒有辨認出來。



在技術的早期階段,製作逼真的偽造視頻還需要高深的專業知識和計算資源。然而,隨著技術的狂飆突進,大量看似用戶友好、甚至傻瓜式的應用程序和平台湧現,使得深度偽造技術徹底平民化、普及化。

正如一名不法分子所說:“隻要能看到臉的,都能換。”

巨大的便利讓深度偽造技術在法律和倫理的真空地帶野蠻生長。那麽也不禁讓人想問:

麵對猖獗的AI換臉,法律為何一再失效?



AI換臉「黑產」曝光:

463元就能定製一個你

坦白說,在全球範圍內,AI換臉都是一個棘手的難題。

主要原因在於技術發展與法律滯後。

技術與監管之間的關係,就像一場永無休止的貓鼠遊戲:

一旦檢測技術攻破了當前的偽造技術,後者就會迅速進化,使檢測技術永遠處於滯後狀態。

想要追溯源頭和找證據也沒那麽簡單。

數字世界裏,一條視頻的生成和擴散速度快到驚人 ,而且每一次轉發、每一次分享,都在不斷模糊最初的作惡痕跡,讓追蹤變得無從下手。

另一個難以回避的困境是:法律的製定總需要嚴謹的流程和漫長的時間,這與AI技術的瞬息萬變形成了鮮明對比。

韓國Deepfake調查人員需要獲得法院批準,才能用秘密身份進入深度偽造聊天室。

當監管人員終於發現線索,並費盡周折等到法院批準後,這個聊天室往往已經消失在了互聯網的汪洋大海之中。

跑得太快、藏得太深、程序太慢,是AI換臉難以遏製的三大症結。



另一方麵,AI換臉無法杜絕,也與它背後已經形成的完整產業鏈息息相關。

服務會根據客戶需求難度進行明碼標價:換臉換聲人民幣463元,隻換聲音約為228元,並且都可以定製話術。

有的AI換臉工具會偽裝成普通繪圖軟件,然後在產品詳情頁中明標注“可實現換頭換衣功能”,心照不宣地吸引受眾下單。

還有人專門組合兜售詐騙軟件和教程,大言不慚地宣稱用這套工具做出來的偽造內容,“找不到絲毫破綻” 。



〓 黑灰產賣家宣傳信息,來源:新京報

當技術、金錢和人性中的惡疊加,這種對抗注定是一場漫長的拉鋸戰。

最無力的就是受害者,他們維權的難度,遠超想象。

很多時候,受害者必須自己承擔起偵探的角色。Deepfake受害者們為了追查源頭和主犯信息,整整花費了兩年時間,才艱難地追蹤到關鍵線索。

付出巨大的精力與成本,可能最終隻能看到輕微的懲罰,與他們遭受的名譽和精神損失完全不成正比。

近幾年,AI技術猶如脫韁的野馬,以超越想象的速度飛速成長,它在帶來顛覆性便利的同時,也像一個被打開的潘多拉魔盒,引發了海嘯般的諸多問題。

我們站在曆史的分岔路口,目睹了AI在效率和作惡之間搖擺的影子。

技術仍在狂奔,但如何為其套上倫理的韁繩、守住人性的底線,人類仍有很長的路要走。

遺憾的是,即便有一天法律跟上了技術,也無法抹平受害者遭遇的傷痛。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(3)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

大騙子成了首席科學家引關注,起底郭某…
中國外交部官員解釋“插兜送客”:天冷 不便握手
中國大使館前 日本人用音響放"館長咆哮習近平"
美少女遊輪神秘死亡 屍體被藏床底 凶手是繼母之子?!
高中學曆“逆襲”成大學博導 如何騙過層層審核的?




24小時討論排行

中日交鋒,是否需要顧及外交禮儀
“閉嘴,閉嘴,蠢豬!” 特朗普辱罵女記者輿論大嘩
那個開日係車被“愛國青年”砸穿腦袋的中國人
解放軍發MV 放話:敵人都別太狂 最好乖乖舉手投降…
特朗普讓北京知道,中國已可以與美國平起平坐
中方暫停進口日本水產品,印度商家躍躍欲試
路透:美國要烏克蘭認了 用割地與裁軍換停戰
華人爸“母語被登記成普通話”失監護權 奪子11年 今終翻案
AI泡沫化?黃仁勳提出3大重點反駁:AI已不可逆
今年以來,中國已經垮塌了3座特大橋
"城堡法"並非無敵!清潔婦誤闖遭槍殺 屋主被起訴
德州警方34年懸案 一群大學生接手 直接破了
以前從銀行取一萬塊有多快,那就知道現在取一萬塊錢有多慢
英偉達第三財季營收狂飆62%!黃仁勳:這不是泡沫
華裔男生離奇墜軌 無監控無證人無記錄 家屬無法接受
中國突然再次宣布:停止進口日本水產品
文學城新聞
切換到網頁版

新興“詐騙三件套”批量湧入 AI正偷走每個人的臉

鳳凰WEEKLY 2025-11-19 09:26:43

人不能兩次踏進同一條河流,但卻可以同時出現在三場直播間。

這是演員溫崢嶸的親身遭遇。

不久前,網友們發現了一件怪事:溫崢嶸仿佛有了分身術,同時在好幾個直播間裏露麵,講解著不同的產品。

新興“詐騙三件套”批量湧入 AI正偷走每個人的臉

鏡頭裏的她,妝發服裝不同,但長相和聲音卻一模一樣。

起初,大家以為這不過是常見的錄播或假直播套路,但仔細一看才發現事情比想象的更嚴重。

屏幕裏滔滔不絕的身影,根本不是溫崢嶸本人。

甚至都不是一個真人,而是用AI製造的數字主播。

不法商家盜用了她的容貌和聲音,批量製造分身帶貨。其逼真程度,足以讓普通人難辨真假。

在許多人的印象裏,AI的以假亂真還停留在僅供娛樂的粗糙階段,但技術早已在暗中迭代到令人毛骨悚然的地步。

以前,一個人要費力證明“我是我”;

而現在,則要拚命辯解“為何我不是我”。

科技帶給了我們便利,也讓事情朝著更複雜的方向發展。

如果一個人的臉和聲音可以被隨意盜用,那麽任何人都可能成為一個被隨意操控的工具。

在這場洪流中,我們每個人都無法置身事外。



頂流明星,正被AI批量「盜臉」

溫崢嶸對這段遭遇的講述,極具魔幻色彩——

拍完戲回到家後,她照常刷著手機,卻突然看到“自己”正在直播,於是下意識留言質問:

“你是溫崢嶸那我是誰?”



荒誕的是,評論剛發出去,她就被“溫崢嶸”拉黑了。

黑色幽默般的故事,甚至衍生了一個熱搜詞條:#溫崢嶸被AI溫崢嶸拉黑#。



事實上,這場換臉鬧劇已經持續了很長時間。

早在今年4月,溫崢嶸就曾公開打假,稱許多山寨號不斷更換名字和ID來冒充她,提醒粉絲們謹慎。溫崢嶸團隊公開表示已向不法商家發送律師函,可侵權行為屢禁不止。

粉絲無奈發帖稱:一天舉報18個假賬號,根本舉報不過來。

實際上不止溫崢嶸,好多名人都遭遇過AI換臉。

在假溫崢嶸的直播中,AI生成的“劉濤”“張柏芝”都來站台,一起捧場寒暄。

演員劉曉慶在綜藝裏吃魚的鏡頭,被嫁接成了減肥產品廣告,還被安排了各種雞湯演講。

逼得劉曉慶本人不得不公開質問:“畫麵是我、聲音很像我,但不是我,這是怎麽做到的?”



央視主持人李梓萌,被偽裝在直播間推銷魚油,背景板還貼上了“央視推薦”。



甚至連德高望重的張伯禮院士,也被AI安排去一眾綜藝明星麵前為“國貨”站台。



10月的英偉達GPU技術大會上,黃仁勳登台沒幾分鍾,一個假黃仁勳就同步開啟了直播,宣傳加密貨幣。

結果,吸引到的觀眾比真黃仁勳還多。



在AI明星批量直播的同時,幕後操縱者還展現出了驚人的產品思維:

古天樂就該代言遊戲,楊冪天生適合帶貨衣服,張馨予則要去代言減肥藥......

於是你能看到野生的“楊冪”出沒在服裝直播間,山寨的“古天樂”在遊戲廣告裏砍著傳奇。



〓 直播賣衣服的假楊冪

騙子們主打一個誰火就換誰的臉。

前段時間,某平台隨處可見“全紅嬋”賣土蜂蜜:“500單土蜂蜜16塊9發兩斤,叔叔阿姨可以下單。”

光是“全紅嬋”一個人還不夠,全家齊上陣,叔叔媽媽爸爸都來賣蜂蜜。



有的號還會精心編造劇本,聲稱“嬋寶想讓家裏的生活更好一點,今天拿出老家300單土雞蛋送福利。”

爆火的“莎頭”組合也來助興,要給大家發嬋妹的土雞蛋。



從明星、主持人再到奧運冠軍,AI換臉幾乎把所有能變現的流量都算計到了。

除此之外,換臉不止用來帶貨,造謠更是信手拈來。

薛凱琪被編造戀情,黴黴被生成虛假色情圖片,雷軍在互聯網上罵人……最後都逼得當事人不得不出來辟謠。

隨著AI換臉侵權波及的範圍越來越大,互聯網呼籲監管的聲浪也越來越高。

被“假靳東”冒充行騙的靳東,在兩會上提交了AI技術與網絡平台立法的建議。



黴黴事件引起了美國白宮的關注,表態國會應該采取立法行動來監管AI。

然而,道高一尺、魔高一丈。

明星們忙著和AI製造的自己割席的同時,AI盜臉的魔爪早已伸向普通人。



Ai換臉的第一批受害者

維權失敗

活在聚光燈下的名人尚有團隊庇護,可以發聲辟謠。而當AI換臉的惡意對準普通人,後果則更加不堪。

其中最惡劣的莫過於青島保時捷銷冠被造黃謠事件。

牟女士作為一年賣出170輛保時捷的銷冠,因業務能力突出被媒體采訪。

節目播出後,網絡上突然流傳出牟女士的虛假不雅視頻。牟女士的社交媒體隨即被大量的私信騷擾淹沒:“看視頻來的,找你買車有服務嗎?”



數字時代,每個人隨手發出的照片都可能被有心人保存起來,用於其他目的。

據《每日經濟新聞》報道,小雅的朋友在朋友圈刷到了一個複刻版的小雅,相似度高達100%,就“頭發絲都一模一樣”。

小雅和朋友反複對比,發現有人盜用了小雅公開發布的照片,用AI生圖技術“克隆”了她。雖然沒有造成惡劣影響,但也足以讓小雅膽戰心驚:

“誰知道對方拿著照片做了什麽呢?”

當技術被用來作惡,人性的幽暗便有了最鋒利的武器。

看別人掙錢太多?那就把她移花接木到不雅視頻。

製作裸照能賺錢?那就批量偽造裸照到境外平台售賣。

沒能和暗戀女生在一起?那就AI換臉進行報複......



隻要一個人暴露了自己的長相,就有可能被AI換臉。

去年,韓國Deepfake事件震驚全球——犯罪者通過付費群組上傳女性照片偽造色情內容,進而廣泛傳播。

受害者涵蓋未成年人、教師、軍人、明星等各個年齡和職業的人群,甚至還有以女性家人為目標的“家庭群組”“近親群組”。

也就是說,許多女性根本不知道自己什麽時候就被盯上,而製作AI換臉的人可能是身邊的朋友、同學,也有可能是完全不認識的陌生人。

這種威脅的恐怖之處就在於它的無孔不入與隨機性。

當惡意從熟悉或陌生的角落襲來,受害者甚至來不及辯解,就已墜入深淵。

被AI換臉的網友表示不敢再前往人群,日常生活遭受嚴重幹擾。

Deepfake受害者的心理創傷植入日常,隻要收到短信通知或匿名電話的鈴聲,就會心跳加速,陷入恐懼。



除了肖像權侵害、名譽損害,AI換臉還被廣泛用於詐騙。

與早期粗劣的詐騙方式不同,騙子們如今早就準備好了高度定製化專屬劇本。

一位母親會收到“女兒”的多條語音,催著繳納報名費,焦急之下立即向騙子賬戶轉賬3.5萬元;

經常聯係的“朋友”會給你打來視頻哭著借錢,幾秒鍾就騙走幾十萬......



以前我們總認為,隻有老年人才容易被騙,但當技術逼真到足以亂真,每個人都可能成為下一個獵物。

焦慮的年輕人尋求精神慰藉,騙子就利用AI換臉技術偽造“通靈視頻”,以此騙取信任和錢財。

打工人需要時常開會,騙子就偽裝成總部高管召開跨國視頻會議,一通指令當場就能騙走2億港元。



在AI麵前,眼見為實的古老經驗正在失效。我們必須要接受:

眼見不再為實,耳聽也可能為虛。

而這一切之所以變得如此猖狂 ,根源在於作惡的門檻,已經低到令人發指。

AI換臉屬於深度偽造技術(Deepfake)。利用深度學習算法,“喂”給AI目標人物的圖像和視頻數據,機器就能學會捕捉並模仿一個人的麵部特征——小到說話時的口型變化、細微的肌肉牽動,大到眼神和神態,都能模擬得惟妙惟肖。

隨後,AI再將這些動態特征嫁接或替換到另一個人的視頻上,喜怒哀樂、一顰一笑都無比自然。

前麵提到的假黃仁勳直播,就成功欺騙了數千人,連美國電台CNBC都沒有辨認出來。



在技術的早期階段,製作逼真的偽造視頻還需要高深的專業知識和計算資源。然而,隨著技術的狂飆突進,大量看似用戶友好、甚至傻瓜式的應用程序和平台湧現,使得深度偽造技術徹底平民化、普及化。

正如一名不法分子所說:“隻要能看到臉的,都能換。”

巨大的便利讓深度偽造技術在法律和倫理的真空地帶野蠻生長。那麽也不禁讓人想問:

麵對猖獗的AI換臉,法律為何一再失效?



AI換臉「黑產」曝光:

463元就能定製一個你

坦白說,在全球範圍內,AI換臉都是一個棘手的難題。

主要原因在於技術發展與法律滯後。

技術與監管之間的關係,就像一場永無休止的貓鼠遊戲:

一旦檢測技術攻破了當前的偽造技術,後者就會迅速進化,使檢測技術永遠處於滯後狀態。

想要追溯源頭和找證據也沒那麽簡單。

數字世界裏,一條視頻的生成和擴散速度快到驚人 ,而且每一次轉發、每一次分享,都在不斷模糊最初的作惡痕跡,讓追蹤變得無從下手。

另一個難以回避的困境是:法律的製定總需要嚴謹的流程和漫長的時間,這與AI技術的瞬息萬變形成了鮮明對比。

韓國Deepfake調查人員需要獲得法院批準,才能用秘密身份進入深度偽造聊天室。

當監管人員終於發現線索,並費盡周折等到法院批準後,這個聊天室往往已經消失在了互聯網的汪洋大海之中。

跑得太快、藏得太深、程序太慢,是AI換臉難以遏製的三大症結。



另一方麵,AI換臉無法杜絕,也與它背後已經形成的完整產業鏈息息相關。

服務會根據客戶需求難度進行明碼標價:換臉換聲人民幣463元,隻換聲音約為228元,並且都可以定製話術。

有的AI換臉工具會偽裝成普通繪圖軟件,然後在產品詳情頁中明標注“可實現換頭換衣功能”,心照不宣地吸引受眾下單。

還有人專門組合兜售詐騙軟件和教程,大言不慚地宣稱用這套工具做出來的偽造內容,“找不到絲毫破綻” 。



〓 黑灰產賣家宣傳信息,來源:新京報

當技術、金錢和人性中的惡疊加,這種對抗注定是一場漫長的拉鋸戰。

最無力的就是受害者,他們維權的難度,遠超想象。

很多時候,受害者必須自己承擔起偵探的角色。Deepfake受害者們為了追查源頭和主犯信息,整整花費了兩年時間,才艱難地追蹤到關鍵線索。

付出巨大的精力與成本,可能最終隻能看到輕微的懲罰,與他們遭受的名譽和精神損失完全不成正比。

近幾年,AI技術猶如脫韁的野馬,以超越想象的速度飛速成長,它在帶來顛覆性便利的同時,也像一個被打開的潘多拉魔盒,引發了海嘯般的諸多問題。

我們站在曆史的分岔路口,目睹了AI在效率和作惡之間搖擺的影子。

技術仍在狂奔,但如何為其套上倫理的韁繩、守住人性的底線,人類仍有很長的路要走。

遺憾的是,即便有一天法律跟上了技術,也無法抹平受害者遭遇的傷痛。