大西洋畔

智睿觀察天下事,專長於科技新聞
正文

現在主要有哪些AI騙局伎倆?

(2025-02-10 17:33:02) 下一個

現在主要有哪些AI騙局伎倆?

ChatGPT說:隨著人工智能(AI)技術的迅速發展,不法分子利用AI實施詐騙的手段也日益多樣化,主要包括以下幾種:
AI換臉(Deepfake)詐騙:騙子使用AI技術將自己的麵部替換為受害者熟悉的人的麵孔,在視頻通話中冒充親友或同事,騙取受害者的信任,從而實施詐騙。
聲音合成詐騙:通過收集目標人物的聲音樣本,利用AI技術合成與其相似的語音,冒充受害者的親友或領導,進行電話或語音消息詐騙。
AI篩選目標人群:不法分子利用AI技術分析網絡上的公開信息,篩選出特定目標人群,製定針對性的詐騙方案,提高詐騙成功率。
AI生成虛假內容:利用AI生成虛假的文本、圖像或視頻內容,偽造新聞、合同或其他重要文件,誘導受害者上當受騙。
例如,近期意大利多位企業家遭遇了一起AI詐騙事件。騙子使用AI技術模擬意大利國防部長的聲音,要求受害者支付巨額贖金以解救被綁架的記者。至少有一名受害者因此被騙取了100萬歐元。
麵對這些新型AI詐騙手段,公眾應提高警惕,增強防範意識。在涉及資金交易或敏感信息時,應通過多種渠道核實對方身份,避免因輕信而遭受損失。

DeepSeek說:隨著AI技術的快速發展,AI騙局的手段也日益多樣化和複雜化。以下是目前主要的AI騙局伎倆及其特點:
1. AI換臉詐騙
手法:利用深度偽造(Deepfake)技術,將目標人物的麵部替換成詐騙者指定的麵孔,並通過視頻通話或錄製視頻實施詐騙。
案例:
2023年,內蒙古包頭市一名科技公司老板郭先生在10分鍾內被騙430萬元。詐騙者通過AI換臉技術偽裝成其好友,利用視頻通話獲取信任後實施詐騙。
香港一家跨國公司員工被AI偽造的高管視頻會議欺騙,轉賬2億港元。
特點:高度逼真,成功率接近100%,尤其針對中老年人和企業財務人員。
2. AI聲音合成詐騙
手法:通過提取目標人物的聲音樣本,利用AI技術合成逼真的語音,冒充熟人進行電話詐騙。
案例:
某公司財務接到老板電話,要求緊急轉賬2萬元,後發現聲音為AI合成。
西班牙一家電影公司接到冒充卷福本尼迪克特康伯巴奇的AI電話,要求支付20萬英鎊定金。
特點:聲音逼真,結合社交工程手段,迷惑性極強。
3. AI偽造信息與謠言
手法:利用生成式AI技術(如ChatGPT、Midjourney)製造虛假新聞、圖片或視頻,用於博取流量或實施詐騙。
案例:
2023年,一條浙江工業園大火的虛假視頻在網絡上傳播,後證實為AI生成。
2024年,一張偽造的五角大樓爆炸圖片導致美股短暫下跌。
特點:傳播速度快,影響範圍廣,常用於製造恐慌或操縱輿論。
4. 數字人帶貨與身份盜用
手法:利用AI生成虛擬數字人,冒充真人進行直播帶貨或社交活動,甚至盜用他人身份信息。
案例:
烏克蘭網紅Olga Loiek發現自己的麵孔和聲音被AI盜用,在中國短視頻平台上創建了數十個虛假賬號進行帶貨。
一些俄羅斯美女賬號通過AI生成視頻吸引粉絲,實際為虛假身份。
特點:低成本、高效率,主要針對對異國文化感興趣的用戶。
5. AI培訓與課程騙局
手法:利用AI技術熱點,推出虛假或低質量的AI培訓課程,通過信息差牟利。
案例:
李一舟因售賣199元的AI課程被質疑割韭菜,其課程內容多為國外免費資源的拚湊。
部分AI課程通過低價引流,後續誘導用戶購買高價服務。
特點:利用公眾對AI技術的好奇心和知識盲區,實施低成本高回報的騙局。
6. 多模態綜合詐騙
手法:結合AI換臉、聲音合成、文本生成等多種技術,打造全方位的詐騙場景。
案例:
詐騙者通過AI生成目標人物的視頻、語音和文字信息,模擬真實互動,騙取信任後實施詐騙。
香港2億港元詐騙案中,詐騙者利用AI生成多人視頻會議,模擬公司高管下達轉賬指令。
特點:高度定製化,迷惑性極強,難以通過單一手段識別。
總結與防範建議
提高警惕:對陌生視頻、語音和信息保持懷疑,尤其是涉及轉賬或敏感操作時。
多重驗證:通過其他渠道(如電話、麵對麵)核實對方身份。
保護隱私:減少在社交媒體上公開個人麵部、聲音等信息。
技術防範:使用AI檢測工具識別深度偽造內容,關注官方發布的防騙指南。
AI騙局的技術門檻雖高,但通過提高防範意識和采用技術手段,仍可有效降低受騙風險。

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.