近年來,随着人臉識别技術的廣泛應用和人工智能技術的進步,一些不法分子開始利用 AI 技術融合他人面孔和聲音、制造逼真的合成圖像來實施新型網絡詐騙,類似騙局手段多樣、門檻低、辨别難度大,經常讓人防不勝防,短時間内造成較大損失。從形象到聲音,如何警惕 AI" 深度造假 "?
公司老闆遭遇 AI 換臉詐騙
10 分鍾被 " 好友 " 騙走 430 萬元
今年 5 月 8 日,内蒙古包頭市公安局電信網絡犯罪偵查局發布了一起使用智能 AI 技術進行電信詐騙的案件,4 月 20 日,福建省福州市某科技公司法人代表郭先生的 " 好友 " 突然通過微信視頻聯系他,聲稱自己的朋友在外地投标,需要 430 萬元保證金,且需要公對公賬戶過賬,所以想要借用郭先生公司的賬戶走賬。
這位 " 好友 " 向郭先生要了銀行卡号,聲稱已把錢轉入郭先生的賬戶,并将銀行轉賬截圖發給郭先生。基于視頻聊天信任的前提,郭先生并未核實錢是否到賬,就陸續轉給對方共計 430 萬元,之後郭先生才發現被騙。對方通過智能 AI 換臉技術,佯裝成好友對他實施了詐騙。
民警陳歆怡曾辦理過多起倒賣、非法利用用戶人臉照片的侵公案件,她表示 AI 換臉換聲的基本邏輯是通過深度學習特定算法,将目标人物的人臉、表情、聲音等嫁接進模仿的視頻中,成本低、合成速率高、檢測鑒别難度大,一般人很難發現僞裝痕迹。目前,AI 詐騙主要有兩種形式:
第一種是通過技術手段合成換臉、換聲的視頻或語音,在視頻聊天、普通電話中直接播放。這種詐騙主要出現于比較緊急的情況,如遭遇事故求助等,播放結束後就會中斷連接,無法與被害人形成回合性對話。
另一種是在視頻通話中直接換臉并替換聲音,或直接換聲撥打電話。
民警提示,以上兩種詐騙方式都受限于樣本數量,所以可以通過延長通話時間、多次進行提問的方式讓對方多說話,露出破綻。
如何預防此類詐騙案件的發生?
2022 年,網信辦、工信部和公安部制定的《互聯網信息服務深度合成管理規定》明确,深度合成服務者應采取技術或人工方式對使用者的輸入數據和合成結果進行審核。今年 8 月,網信辦發布的《人臉識别技術應用安全管理規定(試行)(征求意見稿)》明确,人臉識别技術使用者應每年對圖像采集設備、個人身份識别設備的安全性和可能存在的風險進行檢測評估,采取有效措施保護圖像采集設備、個人身份識别設備免受攻擊、侵入、幹擾和破壞。
北京航空航天大學法學院副教授趙精武表示,相關部門加強監管的同時,也需要公衆自身樹立起良好的防詐騙意識。" 涉及到轉賬等财務信息的電話請求,采取其他方式跟好友進行确認。"
民警進一步強調,要想從源頭上預防此類詐騙案件的發生,保護好個人信息是關鍵:
不要随意接聽陌生電話,防止詐騙人員以電銷推廣等借口采集發音、語句;
避免在個人互聯網社交賬戶上過多暴露個人照片、聲音、視頻等信息;
對外提供人臉照片時需謹慎對待;
使用小衆軟件進行身份認證、網絡貸款實名放貸時需提高警惕;
不要随意點擊陌生鏈接,鏈接中的木馬程序會竊取用戶手機内的照片、監聽回傳通話内容;
開啓定位服務、輸入身份證号、錄入人臉識别信息、指紋識别信息等個人生物信息時,一定要慎之又慎。
此外,民警表示,各 APP 網絡服務提供者在收集、使用個人信息時應遵循合法、正當、必要、公開的原則,不得收集與其提供的服務無關的個人信息,應當采取技術措施和其他必要措施,确保其收集的個人信息安全,不得主動向外提供,也要防止信息洩露、毀損、丢失。
如何實現安全和便捷兼備的 AI 驗證模式?對此,趙精武認爲,二者的平衡有探讨的空間。" 需要結合 AI 技術的發展動向進行同步調整,也需要服務提供者在相關深度合成産品和服務中增加‘ AI 生成’的标識機制,降低第三方識别 AI 生成内容的難度。"
▌本文來源:中央廣電總台中國之聲(ID:zgzs001)