IT 之家 9 月 18 日消息,随着 AI 技術發展,電信詐騙分子也開始通過 AI 換臉、AI 拟聲等手段試圖騙取受害人的錢财。如今,這一新型騙局已經成爲全球多國需要面對的問題。
當地時間 18 日,據 Metro 報道,Starling 銀行面向英國 3000 多人進行的一項調查顯示," 拟聲 " 詐騙現已成爲當地的一個普遍問題,該技術能夠利用 AI 從短短三秒的音頻中 " 創造 " 出受害者親友的聲音。
圖源 Pixabay
最新數據顯示,超過四分之一的英國成年人(28%)表示,他們在過去一年中成爲了高科技聲音克隆騙局的目标。更令人擔憂的是,近一半的人(46%)甚至完全不知道有 " 拟聲 " 詐騙的可能,因此,如果他們成爲目标,就更有可能成爲受害者。
當前,超過 3 秒的語音内容在社交平台上相當常見,詐騙分子即可通過各種技術 " 找到 " 當事人的家庭成員,并利用克隆的聲音撥打電話、發送語音信息或語音郵件,利用受害者的心理來騙取錢财。
在調查中,每 10 人中就有近 1 人(8%)表示在這種情況下他們會發送任何需要的信息,即使自己認爲這通電話 " 看起來很奇怪 "。
Starling 銀行敦促人們不要隻相信自己的耳朵,而是要與自己的親人商定一個暗語或短語,這樣他們就有辦法核實對方的身份。報道稱,英格蘭和威爾士的金融欺詐犯罪呈上升趨勢,去年猛增了 46%。
不僅如此,據 IT 之家此前報道,在 2022 年一整年内,美國的老年人因爲詐騙而損失了 16 億美元(當前約 113.6 億元人民币),其中就有許多詐騙是利用 AI 技術來 " 克隆 " 熟人的聲音,以及其他依靠 AI 生成的伎倆。