參加多人視頻會議
結果隻有自己是真人
這事聽上去似乎匪夷所思
卻真實地發生了
近期,香港警方披露了一起
多人 "AI 換臉 " 詐騙案
涉案金額高達 2 億港元
在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席财務官發起的 " 多人視頻會議 ",并按照要求先後轉賬多次,将 2 億港元分别轉賬 15 次,轉到 5 個本地銀行賬戶内。
其後,向總部查詢才知道受騙。警方調查得知,這起案件中所謂的視頻會議中隻有受害人一個人是 " 真人 ",其他 " 參會人員 " 都是經過 "AI 換臉 " 後的詐騙人員。
近期
在陝西西安也發生了一起
"AI 換臉 " 詐騙案例
陝西西安财務人員張女士與老闆視頻通話,老闆要求她轉賬 186 萬元到一個指定賬号。
被害人 張女士:老闆讓把這個款趕緊轉過去,這筆款要得非常着急,因爲他聲音還有視頻圖像都跟他人是一樣的,所以就更确信這筆款是他要的了。
轉賬之後,張女士按照規定将電子憑證發到了公司财務内部群裏,然而出乎意料的是,群裏的老闆看到信息後,向她詢問這筆資金的來由。
被害人 張女士:然後我們就打電話再跟老闆核實,老闆說他沒有給我發過視頻,也沒有說過這筆 " 轉賬 "。
意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯系相關銀行進行緊急止付,最終保住了大部分被騙資金—— 156 萬元。
據專家介紹
"AI 換臉 " 過程
主要包括
人臉識别追蹤
面部特征提取
人臉變換融合
背景環境渲染
圖像與音頻合成
等幾個關鍵步驟
其背後,最核心的包括三個部分:
首先,利用深度學習算法精準地識别視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關鍵面部特征。
其次,将這些特征與目标人臉圖像進行匹配、替換、融合。
最後,通過背景環境渲染并添加合成後的聲音,生成逼真度較高的虛假換臉視頻。
學會幾招
識别 AI" 換臉換聲 "
AI 換臉這一技術的出現
導緻眼見也不一定爲實了
我們該如何防範呢?
專家表示
其實 AI 人工換臉無論做得多逼真
想要識别真假還是有一些方法的
中國計算機學會安全專業委員會數字經濟與安全工作組成員 方宇:我們可以要求對方在視頻對話的時候,在臉部的前面通過揮手的方式,去識别實時僞造的視頻,因爲它要對這個視頻進行實時的生成和處理以及 AI 的換臉。
在揮手的過程中,會造成面部的數據幹擾。揮手過程中,他所僞造的人臉,會産生一定的抖動或者是閃現,再或是一些異常的情況。
第二個就是,在點對點的溝通中可以問一些隻有對方知道的問題,驗證對方的真實性。中國科技大學網絡空間安全學院執行院長俞能海提醒,可以讓對方摁鼻子、摁臉,觀察其面部變化。他在一個采訪中表示,如果是真人的鼻子,按下去是會變形的,但 AI 生成的鼻子并不會。
同樣,臉部也一樣。真人臉部按下去是會變形的。
提醒:提高防範意識避免個人生物信息洩露
專家表示,除了知曉一些辨别 AI 換臉詐騙的小訣竅,我們每一個人都應該提高防範意識,在日常生活中也要做好相關防範,養成良好的上網習慣。
首先,應該是做好日常信息安全保護,加強對人臉、聲紋、指紋等生物特征數據的安全防護。另外做好個人的手機、電腦等終端設備的軟硬件的安全管理。
第二,不要登錄來路不明的網站,以免被病毒侵入。
第三,對可能進行聲音、圖像甚至視頻和定位等信息采集的應用,做好授權管理。不給他人收集自己信息的機會,也能在一定程度上讓 AI 換臉詐騙遠離自己。
AI 技術 " 換臉換聲 " 存法律風險
近幾年,國家也在積極采取措施來減少類似事件的發生,保護人民群衆的利益。山東财經大學法學院副教授、上海蘭迪(濟南)律師事務所兼職律師孟凡麟介紹道:" 我們國家這些年一直在不斷地進行立法,《中華人民共和國個人信息保護法》對個人信息的保護更加全面,從個人信息的收集、存儲、加工、删除、保密等方面都規定了具體的措施。"
《中華人民共和國消費者權益保護法》首次提出了對公民個人信息的保護要遵循合法正當必要的原則,并規定了具體的保護措施;在《民法典》立法時,明确把個人信息的權利寫進去,作爲公民個人的一項基本權利,并規定了一些原則性的措施,對個人的信息進行全面的保護;在《中華人民共和國數據安全法》當中,對數據的傳輸收集以及保護方面規定了很多具體的措施。
此外,個人信息保護的相關制度在《中華人民共和國反電信網絡詐騙法》、《電信和互聯網用戶個人信息保護規定》和《中華人民共和國數據安全法》中也有具體規定。
2023 年 8 月 15 日,我國正式施行《生成式人工智能服務管理暫行辦法》,從多個方面 " 劃下紅線 ",旨在促進生成式人工智能健康發展和規範應用。
(羊城晚報•羊城派綜合央視新聞客戶端、武漢市反電信網絡詐騙中心、閃電新聞)