AI換臉詐騙430萬元 馬上消費專家提三點防禦措施

王林
發布: 2023-05-28 18:54:26
轉載
1207 人瀏覽過

近日,包頭市公安局公佈福州市某科技公司法人代表郭先生因為AI換臉,10分鐘內被騙430萬元的案件引發對人工智慧安全的廣泛熱議。

AI换脸诈骗430万元 马上消费专家提三点防御措施

對此,馬上消費人工智慧研究院智能核身專家馮月表示,「活體防偽、中介識別等技術的核心功能便是能夠避免人臉辨識的自身缺陷,有效識別照片、影片、面具、模擬模型等,特別是本事件中出現的換臉、變聲詐欺行為。」

對於AI帶來的潛在風險,「AI教父」辛頓在接受《紐約時報》採訪時曾如此表示,「相較於氣候變化,AI可能對人類的威脅'更緊迫'。」

結合現實,此言並非「危言聳聽」。潘朵拉魔盒中的「惡」正逐漸顯現,同時,AIGC正以快速之勢推動AI發展進入新階段。

防範技術之「惡」:眼見不一定為實

#根據「平安包頭」微信公眾號消息近日顯示,包頭市公安局電信網路犯罪偵查局發布一起電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元,幸運的是336.84萬元被騙資金已經被攔截,而其中用到的便是「智能AI換臉和擬聲技術」。 他們是怎麼做到的呢?

這是一個複雜的過程,從新聞本身看,受害者郭先生的視角裡主要是被換臉技術和擬聲技術所欺騙,但事件背後可能還隱含了一些其它條件,例如犯罪者是透過什麼管道與受害者建立的聯繫、如何獲取的相關社交軟體的帳號、如何知道他需要冒充誰、如何獲取對應的圖像和聲音物料、以及如何挑選被害人。

如果我們聚焦到換臉技術和擬聲技術兩個關鍵問題上,它主要的難題就是基礎資料的取得、訓練框架、即時渲染三項。資料層面上,從社群媒體等社工庫可以取得冒充物件的影音訊息,亦或是從遺失的黑產手機的相簿、聊天記錄中擷取。訓練框架上,目前國內幾個主流的短視頻平台的剪輯軟體中都支援換臉特效,並且沒有警示訊息,國外的開源框架中合成方法超過30種。在即時渲染上,透過對手機刷機、安裝侵入軟體等攻擊操作也可以實現劫持渲染。

因此,“眼見不一定為憑”,技術背後總有處心積慮之“惡”,不可不防。

防患於未然,用「法」打敗「魔法」

風險不可避免,又該怎麼利用「魔法」打敗「魔法」?

目前,許多金融機構已有相關的落地措施與相關科技應用。例如活體防偽、中介辨識等技術在金融業務場景中也已得以應用。

「活體防偽、中介辨識等技術的核心功能便是能夠避免人臉辨識的自身缺陷,有效辨識照片、影片、面具、模擬模型等,特別是本事件中出現的換臉、變聲欺詐行為。」馬上消費人工智慧研究院智能核身專家馮月表示,」馬上消費金融基於此類技術創新,目前能夠做到將99%的批量欺詐攻擊攔截在外,有效防範偽造信息、中介代辦、偽造申請、多頭借貸、電信詐騙等風險。「

相較於處於整體環節末端的金融機構,更前一步的,社交軟體有義務引入鑑偽機制,並實時對用戶進行通話鑑真提醒,標記對端用戶是否有行為異常、圖像偽造異常、聲音偽造異常。更早的風險提示訊息,可以更有效地阻隔風險結果的發生。

除平台方面的相關落地,公眾也可以採取一些自救措施,目前有一類技術可以保障用戶的數據不被用於換臉、變聲,這類技術叫對抗樣本技術。以人臉影像為例,透過對此影像混入肉眼不可見的對抗擾動蒙版,可以使換臉技術失效。用戶可以使用該類技術對自己社群媒體公開的圖像、語音等媒體資訊進行對抗保護後再公開。

最後,「防範意識」是一切「魔法」的基石,大眾也需加強對於個人物品、資訊的安全性保護。

「不要隨便點擊不明的簡訊連結、郵件連結等,不隨意掃描不明來源二維碼、下載APP,不輕易提供人臉等個人生物資訊給他人,不輕易透露自己的身分證、銀行卡、驗證碼等訊息,不過度公開或分享動圖、影片等。」馮月建議。 「無法保證手機等行動裝置不會遺失,可以在平時定期清理微信聊天記錄,具有親近關係的人隱藏相關痕跡,將手機相簿加密、或者啟動手機的資料保護功能等,這些日常行為都有可能將詐騙攔截在外。“

久久為功、循序漸進。防範人工智慧技術被“惡用”,仍將是數位時代下的核心議題。

來源:金融界資訊

以上是AI換臉詐騙430萬元 馬上消費專家提三點防禦措施的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!