城頭新聞必讀.. ...........老弱竊笑, 早早就想到並提醒家人ChatGPT可以幹這個.

來源: 弱-智 2023-03-08 05:48:03 [] [博客] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (6327 bytes)

https://www.wenxuecity.com/news/2023/03/07/12188284.html

AI開始“騙”人!仿孫子求救 有人被騙上萬美元

文章來源:  於  - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 29104 次)
  
 

人類科學的進步,但如果被犯罪分子利用,也意味著作案手法越來越高超。

人工智能(AI)的語音技術日漸進步,讓不法分子得以隨意模仿出別人的聲線,騙取大眾特別是長者的信任,進而冒認其親人來詐財。

聯邦貿易委員會(FTC)的數據指出,冒名詐騙成為2022年受害者第二多的騙局,當局接獲超過3萬6000份舉報。

據《華盛頓郵報》報道,FTC表示,當中逾5100起事件屬電話詐騙,涉及損失超過1100萬元。

相比之下,行騙成本卻低廉卻得多;現時網上多的是AI語音生成工具,不法分子便是藉此從短短數句的音訊樣本中複製出別人的聲線,然後利用相同技術以新得來的聲線“說”出任何內容。

專家表示,現時聯邦監管機構、執法部門和法院對這種新興騙局均束手無策。

大多數情況下,受害者無法辨認騙徒身份,警方也很難追蹤來自世界各地的詐騙電話和資金去向。

現時也沒有法律先例,要求相關網上工具的製作公司為此負責。

雖以冒名行騙的手法五花八門,但是運作方式卻大同小異:騙徒冒充值得信賴的人,例如是子女、情人或朋友,並以陷入困境為由,說服受害者向他們匯款。

人工生成的語音技術讓騙徒冒認別人時更有說服力,讓受害者信以為真。

專家表示,AI語音生成軟體能夠分析出說話者的聲線特點,包括年齡、性別和口音等,然後從龐大的聲音資料庫中搜索出相似的聲音並進行模擬預測,最後重構出整體效果非常近似的合成聲線。

這項技術需要的隻是一個30秒左右的音訊樣本,例如是YouTube、廣告、TikTok的短片音頻,突破了一、兩年前仍然需要大量音頻來複製人聲的狀況。



身份盜竊資源中心(Identity Theft Resource Center)表示,執法部門很難追蹤合成語音詐騙,大多是因為當局可能沒有足夠的資金和人力來設立專責追蹤欺詐的部門。

最高法院大法官戈薩奇(Neil M. Gorsuch)2月表示,保護社交網路免受訴訟的法律保障,或許不適用於AI創造的作品。

FTC敦促民眾保持警惕。

如果有親人說需要錢,請用其他電話打給那名親人確認。

即使來電顯示是家庭成員的電話號碼,那也可能是改號欺詐。

千萬不要透過禮品卡方式付錢給別人,因為這種方式很難追蹤,同時也要對任何現金要求保持警惕。

最後小編也想說下,科技發展到了如今,難道人與人之間又要回到靠“暗號”聯絡的年代了嗎?

所有跟帖: 

跟家人約定, 必須詢問些多年前的私事類問題來確認身份. 例如,初次見麵地點. -弱-智- 給 弱-智 發送悄悄話 弱-智 的博客首頁 (0 bytes) () 03/08/2023 postreply 05:53:09

這世界越變越可怕 -年輪- 給 年輪 發送悄悄話 (0 bytes) () 03/08/2023 postreply 06:00:36

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉/移除任何Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock/Adblock plus

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”