近日,包頭市公安局電信網絡犯罪偵查局
發布一起使用智能 AI 技術
進行電信詐騙的案件
昨天,相關話題
#AI 詐騙正在全國爆發 #
登上熱搜
4 月 20 日中午,福州市某科技公司法人代表郭先生的好友突然通過微信視頻聯系他,自己的朋友在外地競标,需要 430 萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。
基于對好友的信任,加上已經視頻聊天核實了身份,郭先生就分兩筆把 430 萬轉到了好友朋友的銀行卡上。郭先生撥打好友電話,才知道被騙。騙子通過智能 AI 換臉和拟聲技術,佯裝好友對他實施了詐騙。
值得注意的是,騙子并沒有使用一個仿真的好友微信添加郭先生爲好友,而是直接用好友微信發起視頻聊天,這也是郭先生被騙的原因之一。騙子極有可能通過技術手段盜用了郭先生好友的微信。在接到報警後,福州、包頭兩地警銀迅速啓動止付機制,成功止付攔截 336.84 萬元,但仍有 93.16 萬元被轉移,目前正在全力追繳中。
AI 詐騙成功率接近 100%?
郭先生的經曆并非孤例。此前,一名擁有百萬粉絲的女網紅爆出了一起 "AI 換臉 " 事件。這名女網紅表示,她的視頻評論區突然湧來了很多人說看過她的 " 視頻 ",但她從未發布過這樣的視頻。
她疑惑地點開了這個視頻,結果發現裏面的女生和她長得一模一樣,但做着一些難以描述的動作,讓她感到非常憤怒和無助。她随即意識到可能是她的臉被人工智能(AI)盜用了。
事實上,近兩年來,在浙江、安徽、江蘇等地,多名盜取個人信息的犯罪嫌疑人被公安部門抓獲。
犯罪嫌疑人作案流程極爲雷同:
先是非法獲取他人照片或有償收購他人聲音等 " 物料 ",然後利用人工智能技術将照片 " 活化 "、合成動态視頻,之後或直接騙過社交平台、支付寶賬戶的人臉核驗機制,進行非法獲利;
或騙過手機卡注冊過程中的人工審核環節,繼而利用他人名下的手機号進行電信網絡詐騙、網絡賭博等,使被收集信息的人遭受安全威脅和财産損失。
在 AI 應用如此廣泛的現在,利用 AI 詐騙有哪些常用手法?
第一種是聲音合成,騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用僞造的聲音騙過對方。
第二種爲 AI 換臉,人臉效果更易取得對方信任,騙子用 AI 技術換臉,可以僞裝成任何人,再通過視頻方式進行信息确認。騙子首先分析公衆發布在網上的各類信息,根據所要實施的騙術,通過 AI 技術篩選目标人群。在視頻通話中利用 AI 換臉,騙取信任。
第三種是轉發微信語音騙子在盜取微信号後,便向其好友 " 借錢 ",爲取得對方的信任,他們會轉發之前的語音,進而騙取錢款。盡管微信沒有語音轉發功能,但他們通過提取語音文件或安裝非官方版本(插件),實現語音轉發。
第四種是通過 AI 技術篩選受騙人群,騙子不是漫無目的地全面撒網,而是别有用心地鎖定特定對象。他們會根據所要實施的騙術對人群進行篩選,從而選出目标對象。
不輕易提供人臉、指紋等
個人生物信息
包頭市公安局反詐中心民警對媒體表示,智能 AI 詐騙是指不法分子非法獲取他人照片或有償收購他人聲音等 " 物料 ",僅僅需要少量音視頻樣本數據,就可以合成媲美真人的僞造音視頻,模拟制作出來的動态人物不僅能做點頭、搖頭等動作,還可完成眨眼、張嘴、皺眉等豐富表情,效果極爲逼真,用來實施精準詐騙,侵害他人人身和财産安全。
警方提示:
針對花樣翻新的智能 AI 詐騙,公衆要增強防範意識,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等。
網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。如果有人自稱 " 熟人 "" 領導 " 通過社交軟件、短信以各種理由誘導你彙款,務必通過電話、見面等途徑核實确認,不要未經核實随意轉賬彙款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。
如不慎被騙或遇可疑情形,請注意保護證據立即撥打 96110 報警。