也許你還記得,在去年六月,有一群中國人利用特效換臉,開始假裝俄羅斯人帶貨。
從室内到戶外,從城市到農村,他們活躍在在每片能支棱起手機拍視頻開直播的土地上,操着一口帶有濃郁方言味的普通話,在商品櫥窗裏上鏈接。
他們的視頻和直播裏,沒有什麽狠活。
總結起來就一句話, " 我,俄羅斯人,喜歡中國,打錢 " 。
我本以爲,随着那篇報道的結束,中國人假冒毛子的故事就告一段落。
但我萬萬沒想到,在 2024 年,這個套路他 360 度大升級了。
具體是咋回事呢?
這兩天,一個叫 Olga Loiek 的烏克蘭女孩發了條視頻,說有個朋友給她發個鏈接,自己一看,人都傻了。
好家夥,我怎麽在中國咔咔帶上貨了??
原來在小紅書上,有這樣一類賬号,天天就是一個長相完全一緻的金發美女,變着法的講中俄友誼長存,三句離不開謝謝中國。視頻結尾,還會給你介紹下俄羅斯的美食。
而看視頻的老鐵們,自然也要照顧下大妹子的生意。
是的,成百上千萬中國觀衆看到的這張侃侃而談的 " 臉龐 " ,就是 Olga Loiek 。
反觀 Olga ,自己還沒在 YouTube 上賺到半毛錢呢。
而且更尴尬的是,臉被别人偷去用來帶貨不說,作爲一個烏克蘭人,人設還是個俄羅斯人,帶得還都是人俄羅斯的土特産。。。這找誰說理去。
如果你沒法和這個女孩共情,不妨可以設想一下,一個美國人頂着你的臉,假裝自己是日本人,變着法吹日本。
然後他還利用你的臉,從其他美國人手裏,賺了你這輩子都不一定能賺到的錢,在視頻評論區裏,觀衆們刷的都是 " 你好日本,愛來自美國 " 。
你氣不氣?
Olga Loiek 也不是唯一一個倒黴蛋,另一位來自瑞典的網紅拉納布萊克利的臉,也被移花接木到了中國人臉上。
在視頻裏, " 她 " 大談中國人的勤勞善良,并且嫁給中國老公,餘生在中國定居。
看完視頻的網友也不知道自己成了即将被噶的韭菜,還在問她喜歡中國哪個城市。
在抽查了幾個被 Olga Loiek 展示的賬号之後,我發現這些假冒外國人的中國賬号,有些已經在各大平台注銷掉了,但還有一些依舊逍遙法外。
可世上隻有千日做賊,哪有千日防賊。
AI 技術的發展速度,明顯比人類目前的應對速度要快。
在一年前, AI 技術還是被網友嘲笑的對象,網友看了也隻會覺得這輩子的恐怖谷效應都犯完了。
然而現在, AI 技術已經可以産生以假亂真的效果了。
變化總是在悄無聲息中進行,在 AI 技術日漸進步的今天,眼睛和耳朵,正在逐漸失去辨别能力。
人的知覺,正在信息時代的沖擊下 " 被退化 " 。
看到這,估計很多差友會覺得這些事都離自己太遠,比如那個假冒的烏克蘭女孩,懂行的一看就知道了,完全騙不到自己啊?
那你再試試這個呢?
如果你比較關注遊戲雜談,那你可能還記得一個叫做敖廠長的視頻博主,他因爲幾波輿論潮,基本敗完了自己的口碑。
在去年,他先後停止了 B 站和抖音的更新,悄無聲息的從網友的關注列表裏消失了。
可就在前兩天,一位 B 站 UP 主用自研 AI 文本轉語音技術,搭配上他原有的文案和剪輯風格,愣是複刻了一整個 UP 主敖廠長出來,給我看恍惚了。
彈幕裏都在刷 " 亡靈法師 "" 招魂成功 " 。
在這個 UP 主頁貼出的網址中,還能找到更多奇奇怪怪的 AI 音聲,比如丁真、科比、孫笑川,以及一些知道這個網站八成要發律師函的明星們。
那麽,使用 AI 生成一個人的音聲,要搜集多少真人的聲音呢?
UP 主在視頻介紹中,給出的答案是:5 秒。
沒錯,你隻要說 5 秒鍾的話,你的聲音就可能已經被克隆了。
如果以上的技術,能夠用在發展生産力,推動社會進步上,那勉強還能算是最好的結局。
但你要知道,現在的 AI 技術,已經越來越下沉。
第一天出了個厲害的 AI 軟件,第二天使用教程就有博主給你發抖音了,簡直就是手把手教學,從入坑到精通給你安排的明明白白。
不可否認,這是一件好事,可它也把人心底的陰暗面一點點放大,最後形成公共事件。
前幾天, AI 生成的泰勒斯威夫特虛假不雅照片,在整個網絡上瘋傳,甚至驚動了美國白宮。
白宮新聞發言人卡裏娜 · 讓 - 皮埃爾警告 AI 生成照片的傳播 " 令人擔憂 " ,并敦促社交媒體公司防止此類錯誤信息的傳播。
泰勒這事爲啥這麽爆炸?畢竟早在 PS 時代,就有很多女性飽受換臉的困擾了對吧?
但在 AI 時代,照片裏的所有細節都可以被精心定制。
泰勒這次,就是因爲交了一個橄榄球星男朋友,被生成出了在橄榄球更衣室裏的照片。。。
換誰不急眼?
後來也是由于類似的圖片過多,推特一度封鎖了對斯威夫特的相關搜索。
爲什麽全美國因爲這事都開始變得神經兮兮,因爲大家都清楚,今天是泰勒,明天可能就是自己。
而且 AI 幹的壞事,也不隻是下三路,它的能量比你想的龐大。
在中國香港,發生過一起 AI" 深度僞造 " 詐騙案。
詐騙者就是通過 AI 技術,把網上搜集到的跨國公司總部高層的聲音和面貌,替換到自己身上,然後,簡簡單單從該公司的香港分公司騙走了 2 億港元,甚至,公司财務連老闆的人臉和聲音都沒看出來有啥異常。
你以爲 AI 也就到這種程度嗎?
别忘了, 2022 年,烏克蘭總統澤連斯基 " 呼籲烏克蘭士兵放下武器投降 " 的視頻在網上傳播。
這條十分整蠱的視頻,逼到烏克蘭國防部都要站出來聲明 " 這是不可能的 " 。
由此可見,從個人到團體,甚至是國家之間的戰争,每個能鑽的空子,都成爲了 AI 的突破口。
更可怕是,到目前爲止,還沒有一個特别好的招兒能防讓住人用 AI 幹壞事。
網絡安全業内人士,i 春秋的朋友小傲( 化名 )就告訴世超,反 AI 犯罪的難點主要有兩方面,一個是技術層面,一個是經濟層面。
在技術層面上, AI 生成内容的識别難度大,特别是 AI 越發展,肉眼能識别出來的概率也越小,這種時候就隻能上機器。
而在經濟層面上,用 AI 來犯罪并不是難事也不需要花什麽錢,但用 AI 來反 AI 的成本就高了,你得砸錢出力去搞研究。
現階段,國内外有不少監管機構和公司在想法子拴住 AI ,去年公安部就端了個用 AI 寫勒索病毒的團夥。
市面上,也有不少檢測 AI 生成内容的工具,但效果還不好說。
像 OpenAI 之前就推出過一款文本檢測工具,但因爲檢測錯誤率太高偷偷給下架了。。。
兩年前,微軟還有 BBC 等幾家科技公司和媒體一起合作,成立了個内容來源和真實性聯盟 ( C2PA ) 。
有了 C2PA 協議之後,内容是誰創作的,曆史的修改記錄,都會被記錄下來。就相當于給生成的内容,打上了一層看不見的水印。
但用小傲的話來說, C2PA 這玩意屬于防君子不防小人,大廠守規矩,不代表很多開源調出來的小模型,也會遵守協議。
而且, C2PA 現在還有不少 Bug ,像一截圖水印就沒了,要生效也得好幾個平台都使用協議才行。
所以很殘酷的一個現實是,現階段咱們沒法兒杜絕 AI 幹壞事。
關鍵在于, AI 技術發展得實在是太快了, AI 生成的内容越來越逼真,生成的門檻卻越來越低,就像 Sora 問世後,大家都在說 " 現實,不存在了 " 。
不可否認,之後的立法、反 AI 技術肯定會跟上,但這種敵在暗我在明的情況,監管就很被動了。
這就像一場貓鼠遊戲, AI 知道規則就會繞過去,人類再設置新的規則,這場遊戲,或許永無止境。