視頻“變臉”相似度達80%!“AI換臉詐騙”如何防範?

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

最近,視頻網站上通過人工智能換臉,《亮劍》裏的主角用英語飆起了台詞,通過小程序用戶也可以將自己變成電影裏的人物。新技術帶來歡樂的同時,也帶來了一種名為“AI換臉詐騙”的新騙術。前不久,國家金融監督管理總局北京監管局發布謹防“AI換臉”等新型欺詐手段的風險提示,這種騙術如何防?一起關注——

青島的一名大學生和他在網上認識的“女朋友”視頻聊天,對方稱需要資金周轉,男孩打錢過去之後,發現竟然被詐騙了。

深圳安絡科技市場部經理 梁雅婷:我們通過取證發現其實跟他聊天的並不是他的女朋友,對方是通過虛擬的攝像頭,然後通過AI換臉的功能跟他進行聊天。

那麽AI如何做到在視頻通話時換臉呢?記者在一家為公安機關提供技術支持的科技公司看到的演示,相似度可以達到80%。

深圳安絡科技產品部經理 劉遠洋:剛才我們拍了一張照片,然後上傳到電腦上麵,我們隻需要打開軟件選擇頭像,左邊已經看到我們的圖片,右邊是事先拍好的一段視頻。工程師已經把所有的參數都已經設定好了,我們隻需要點擊開始執行,輸入要保存的文件名,這個窗口彈出來過後,換臉視頻就已經開始生成了。

我們在現場看到,一個高配置的電腦,合成一段10秒的換臉視頻隻需要一兩分鍾。而技術的發展,視頻聊天的實時變臉也不是難事了。

深圳安絡科技產品部經理 劉遠洋:照片上傳後,一般就會有30秒鍾左右的時間,對照片進行特征識別,然後進行建模。建模好過後就可以進行實時轉換,不管是你的頭像,還是在朋友圈的一張小照片,隻要是照片都可以直接上傳,進行特征的識別建模。

AI生成的技術還在不斷地更新迭代,比如性別的互換,聲音的變換,都可以同步進行。由於算法是開源的,也就是說一個普通的工程師就可以製作出一個變臉軟件,這就導致我們在控製源頭上帶來了極大的困難。

AI換臉用於詐騙 反詐也有新手段

不斷迭代的AI技術,已經把換臉視頻做到“真假難辨”,那麽我們應該如何防範此類新型詐騙呢?

首先,目前視頻換臉的技術上也不是無懈可擊的,視頻溝通時的一些動作,就可以發現破綻。

深圳安絡科技副總裁 肖堅煒:在這個操作中,如果我用另外第三個圖像去幹擾它,比如讓他用手捂臉、動一動,就會幹擾到圖像的合成。從這裏演示看,我把手放上去之後,會明顯地看到屏幕上我們同事的眼睛在抖動了,鼻子在抖動了,我的手已經消失了,嘴巴也消失了。

除了讓對方在臉部做出一些動作來判斷,專家介紹,AI合成軟件的升級可能是飛速的,如果動作捕捉已經被避開,那麽我們就需要通過一些更專業的軟件來分辨了。

深圳安絡科技副總裁 肖堅煒:我們可以通過軟件來識別,比如人的整個輪廓,替換的眼睛、鼻子、嘴巴這裏,它的像素大小是不一樣的,顏色的色域是有差別的。像我們的衣服一樣,要打一個補丁,是沒辦法做到完美的。這些我們眼睛肉眼看不出來,但是軟件算法是可以檢測出來的。

目前,這類鑒別軟件對設備和周邊的要求也比較高,使用起來並不普及。不過,讓視頻傳播的網站或者社交軟件,使用專業的鑒別軟件來鑒定,再打上“AI製作”的標簽,在現階段不失為一個方法。

預防“AI換臉詐騙”,大家還要加強對人臉、聲紋、步態、指紋等生物特征數據的安全防護。

中國科技大學公共事務學院、網絡空間安全學院教授 左曉棟:在使用互聯網服務或者在社會生活中,要求輸入人臉等生物特征數據的時候,我們要看一看,對方收集我們的生物特征數據是不是符合數據安全法,個人信息保護法的要求,是不是合法、正當和必要。

此外,國家也在通過多重手段防範“AI換臉詐騙”,近兩年,相關部門先後出台了互聯網信息服務深度合成管理規定,生成式人工智能服務管理暫行辦法等有關政策文件。先後開展了“互聯網深度合成算法備案”“大語言模型算法備案”等有關工作。嚴厲打擊利用AI換臉、變聲等手段實施的違法犯罪行為。

中國科技大學公共事務學院 網絡空間安全學院教授 左曉棟:目前看來初步遏製了濫用人工智能技術。特別是從事違法犯罪的這些勢頭,整體治理效果開始顯現,而且也有力促進了人工智能技術的規範發展。