被騙2億港元!男子參加多人視頻會議隻有自己是真人

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

參加多人視頻會議

結果隻有自己是真人

這事聽上去似乎匪夷所思

卻真實地發生了

近期,香港警方披露了一起

多人 “AI換臉”詐騙案

涉案金額高達2億港元



在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務官發起的“多人視頻會議”,並按照要求先後轉賬多次,將2億港元分別轉賬15次,轉到5個本地銀行賬戶內。

其後,向總部查詢才知道受騙。警方調查得知,這起案件中所謂的視頻會議中隻有受害人一個人是“真人”,其他“參會人員”都是經過“AI換臉”後的詐騙人員。



近期,在陝西西安也發生了一起“AI換臉”詐騙案例。

陝西西安財務人員張女士與老板視頻通話,老板要求她轉賬186萬元到一個指定賬號。



被害人 張女士:老板讓把這個款趕緊轉過去,這筆款要得非常著急,因為他聲音還有視頻圖像都跟他人是一樣的,所以就更確信這筆款是他說要的了,



轉賬之後,張女士按照規定將電子憑證發到了公司財務內部群裏,然而出乎意料的是,群裏的老板看到信息後,向她詢問這筆資金的來由?



被害人 張女士:然後我們就打電話再跟老板去核實,老板說他沒有給我發過視頻,然後也沒有說過這筆“轉賬”。



意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯係相關銀行進行緊急止付,最終保住了大部分被騙資金——156萬元。

據中國網絡空間安全協會

人工智能安全治理專委會專家

薛智慧介紹↓

“AI換臉”過程

主要包括

人臉識別追蹤

麵部特征提取

人臉變換融合

背景環境渲染

圖像與音頻合成等幾個關鍵步驟

其背後,

最核心的包括為三個部分:

首先,利用深度學習算法精準地識別視頻中的人臉圖像,並提取出如眼睛、鼻子、嘴巴等關鍵麵部特征。

其次,將這些特征與目標人臉圖像進行匹配、替換、融合。

最後,通過背景環境渲染並添加合成後的聲音,生成逼真度較高的虛假換臉視頻。



學會幾招

輕易識別AI“換臉換聲”

AI換臉這一技術的出現

導致耳聽為虛

眼見也不一定為實了

那我們該如何防範呢?

專家表示

其實AI人工換臉無論做得多逼真

想要識別真假還是有一些方法的



中國計算機學會安全專業委員會數字經濟與安全工作組成員 方宇:我們可以要求對方在視頻對話的時候,在臉部的前麵通過揮手的方式,去進行識別,實時偽造的視頻,因為它要對這個視頻進行實時的生成和處理和AI的換臉。



在揮手的過程中,會造成麵部的數據的幹擾。揮手過程中,他所偽造的這個人臉,會產生一定的抖動或者是一些閃現,或者是一些異常的情況。



第二個就是,在點對點的溝通中可以問一些隻有對方知道的問題,驗證對方的真實性。

中國科技大學網絡空間安全學院

執行院長俞能海提醒

可以讓對方摁鼻子、摁臉

觀察其麵部變化

他在一個采訪中表示

如果是真人的鼻子

按下去是會變形的

但AI生成的鼻子並不會



同樣

臉部也一樣

真人臉部按下去是會變形的



【提醒】

提高防範意識

避免個人生物信息泄露

專家表示,除了知曉一些辨別AI換臉詐騙的小訣竅,我們每一個人都應該提高防範意識,在日常生活中也要做好相關防範,養成良好的上網習慣。

首先,應該是做好日常信息安全保護,加強對人臉、聲紋、指紋等生物特征數據的安全防護。另外做好個人的手機、電腦等終端設備的軟硬件的安全管理。

第二,不要登錄來路不明的網站,以免被病毒侵入。

第三,對可能進行聲音、圖像甚至視頻和定位等信息采集的應用,做好授權管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠離自己。

【新聞+】

AI技術“換臉換聲”

可能存在法律風險

法律專家表示,用AI技術為他人“換臉換聲”甚至翻譯成其他語言並發布視頻,可能涉嫌侵權,主要有三個方麵:

一是涉嫌侵犯著作權,例如相聲、小品等都屬於《中華人民共和國著作權法》保護的“作品”。例如網友用AI軟件將相聲、小品等“翻譯”成其他語言,需經過著作權人授權,否則就存在侵權問題。

二是涉嫌侵犯肖像權,根據《中華人民共和國民法典》,任何組織或者個人不得以醜化、汙損,或者利用信息技術手段偽造等方式侵害他人的肖像權。未經肖像權人同意,不得製作、使用、公開肖像權人的肖像,但是法律另有規定的除外。

三是涉嫌侵犯聲音權,根據《中華人民共和國民法典》規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。也就是說,需要取得聲音權人的同意,才能夠使用他人的聲音。