前段時間,微博上一封求救信引起了人們的注意。
一個 IP 顯示爲韓國,名叫 nosunae_520 的賬号,稱自己深受DeepFake(深度僞造) 的侵害。
DeepFake 是這些年十分流行的AI 僞造技術。
我們經常在網上看到的将明星 AI 換臉,運用的就是這樣的技術。
而這個女孩遭遇的,是自己的臉出現在成人視頻當中。
并且,她在博文中寫道:
現在韓國的情況太嚴重了,無法預測有多少女性因 DeepFake 而受害。
随着此事熱度的不斷上漲,人們驚恐地發現,一件可怕的 AI 換臉性醜聞正在發生。
這個事件時間跨度之長,涉及範圍之廣也已經遠超人們的想象,被稱爲「N 号房 2.0」。
更要命的是,當你了解整個事件之後就會發現,下一個被換臉的人可能就會是自己。
如此可怕的事實,簡直讓人不寒而栗。
也許很多人沒有意識到,别有用心的 AI 換臉有多麽可怕。
高分英劇《真相捕捉》曾展現了 DeepFake 的可怕之處。
一個英國軍人被控告毆打并綁架了一名女性,證據是一段街道上的監控錄像。
可經過調查卻發現,這個視頻是那名女性受害者用 DeepFake 制作的。
如果調查不夠仔細,一個無辜之人就很可能被投入牢獄之中。
将這種轉白爲黑的手段運用在性犯罪事件中,其帶來的後果簡直無法想象。
nosunae_520 并不是唯一一個在微博發出求救的人。
就在她發聲的兩天後,另一個 IP 爲韓國的微博賬号也寫下了相同的内容。
中國也不是她求救的第一個海外國家。
全球各類社交平台上,她們都發表過相似的文字。
之所以要在海外求助, 因爲在韓國國内,這件事情并沒有得到應有關注。
實際上,早在今年 5 月 ,韓國就發生過一起被稱爲「N 号房 2.0」的案件。
幾名首爾大學的校友,在過去三年間,利用 DeepFake 将女性的頭像植入成人視頻中。
之後再在名爲「電報」的加密軟件上組建群組,進行傳播獲利。
進入這個群組的條件,就是拿出身邊的 5 個女性熟人的換臉視頻。
成功進入群組後,成員們就可以免費使用群裏的制作軟件,然後開始制作收費視頻再向外輸出。
如此一來,就完成了一套自産自銷且傳播速度很快的産業鏈。
這些加害者,往往會從自己身邊的人下手。
同學、老師、同事,甚至是自己的母親、姐妹都是他們的目标。
他們甚至還惡劣地根據受害者的身份,将私密群聊分爲「媽媽房」「姐妹房」「護士房」……
各種群組
更令人氣憤的是,當被發現後,他們還嚣張地直接威脅受害者。
而受害者報警後,警方隻是說「會調查」然後不了了之。
法律途徑走不通,受害者便轉向網絡求助。
可她們收到的,卻是删帖禁言和更過分的言語羞辱。
忍無可忍的受害者們找到了當初卧底調查 N 号房的「追蹤團 · 火花」的成員。
這個名叫恩智 (音譯) 的成員再次化身卧底,一舉曝光了這個團夥,也将一組可怕的數據公之于衆——
僅一名加害者,就在 3 年時間裏針對包括未成年人在内的48 名受害者制作了約400 個視頻,并傳播了約1700 個視頻。
本以爲,這次事件的爆發能夠結束這樣惡劣的事情。
沒想到,反而愈演愈烈。
8 月,韓國一名初三男生了解到,自己學校依舊有 DeepFake 成人視頻受害者。
于是他建立了一個「受害者學校地圖」的網站。
結果,短短的 2 天内,這個網站中就有超過 200 所學校被标記。
這些學校不僅有大學,還包含了大量中學與小學。
但是韓國警方與媒體并沒有給出過多的關注。
他們的理由,一是軟件 IP 地址在國外難以追查,二是「不方便公開加害者信息」難以立案。
直到數字井噴式的增長,再加上大量韓國女性在外網求助,才引起政府重視。
調查數據顯示,AI 換臉成人視頻的受害者數量已經達到22 萬人,而韓國去年一整年的出生人口是 23 萬人。
在所有受害者中,青少年的占比高達73.6%。
而大部分的加害者,也是未成年人。
近年來,用 AI 換臉對女性造黃謠,愈來愈頻繁。
2017 年,就有人将女星蓋爾 · 加朵的臉嫁接在一個成人電影女演員的身上。
在「DeepFake Maker」網站上,截至目前已經有 4000 多位名人被 AI 換臉爲成人視頻的主角。
其中包括了斯嘉麗 · 約翰遜、娜塔莉 · 波特曼、泰勒 · 斯威夫特等歐美女星。
還有一衆韓國女愛豆。
近日,韓國四大娛樂公司之一的 JYP 公司,還專門針對旗下女藝人被惡意 AI 換臉發布了官方通告,稱要訴諸強制法律手段。
2021 年,一位台灣知名網紅被曝出,用 AI 換臉技術将許多台灣藝人變成成人影片的女主角後販賣盈利。
其中就包含蔡依林、陳意涵等知名藝人。
内娛也有大批受害者。
楊幂、迪麗熱巴、趙麗穎也多次被人發現成爲 AI 換臉的對象。
而這一次的事件,無論是受害規模還是技術精度,都大幅提升。
早些年,那些粗糙的換臉視頻,大家基本上都能一眼辨真假。
但現下越來越精進的技術,普通人已經難以用肉眼分辨。
日劇《相棒》有一集,就将話題對準了 DeepFake 技術的以假亂真。
一名國防技術顧問在家中卧室被殺害。
現場的電腦中有一段他與一名女性的「性愛錄像」。
而這位女性在面對警察的調查時,堅稱自己從未與被害者發生過關系,并能夠給出完美的不在場證明。
但她依舊無法證明,視頻中的女性不是自己。
因爲一切都太真了。
直到後面兇手自己承認,警方才知道這是一段用 DeepFake 制作的視頻。
不僅如此,此次事件的受害者基本上都是普通人。
以前,如果是明星受到侵害,還能借助公衆影響力和經紀公司的力量爲自己維權。
相反,普通人就很難擁有這樣的資源。
而且,随着社交網絡的發展,個人信息很容易就能被他人獲取, 更不用說圖片這樣最唾手可得的材料。
想想《黑鏡》第六季中的一集。
女主隻要使用了智能手機等聯網設備,AI 就可以立馬根據大數據複刻她的人生。
更何況,AI 換臉成人視頻的犯罪成本太低了。
隻要一張正面的照片、成熟的軟件就可以完成一個逼真的視頻。
随着技術的不斷更新,現在甚至連聲音都可以僞造。
電影《保你平安》中,有這樣一句台詞:
當你說一個女人是小姐的時候,不管她是不是,她都已經是了。
過去,僅僅是文字、語言上的造黃謠,就能給一名女性帶來毀滅般的傷害。
如果再加上可以眼見爲實的「證據」呢?
2022 年,杭州警方就破獲了一起涉黃 AI 換臉案。
在犯罪者的供述中,就提到了有不少人拿着自己暗戀女生的照片來制作換臉視頻。
生活在互聯網時代的我們,在微博、朋友圈、QQ 空間中都留下過自己的照片與信息。
誰都不能保證,自己會不會就是下一個受害者呢?
除開一個個發生的具體案件本身,還有一個事情值得我們警惕。
那就是人們對待此事的态度。
這個事件中,加害者們一直是肆無忌憚的。
他們将這種行爲看作是一種娛樂方式,隻是爲了有趣,開個玩笑而已。
随便說上無數個理由,來爲自己的行爲找借口。
被發現後,他們甚至還會變得更加興奮。
因爲比起視頻中的假人,他們似乎更喜歡看當事人的真實反應。
就算真的被警察盯上,他們也會有恃無恐地叫嚣自己會卷土重來。
反而是那些受害者每日活得戰戰兢兢,再也不敢在網上公開任何自己的照片與信息。
當韓國 DeepFake 事件徹底爆發後,大多數人的态度當然是憤怒與恐懼。
但也有不少人因爲是「AI 換臉」而不以爲然。
甚至連一部分韓國警方也持有這樣的态度。
有受害者在網上表示,當她去尋求警方幫助時就受到反問:
「既然不是你本人,那又有什麽關系?」
在他們看來,這種沒有在實體上造成侵害的行爲,沒必要大驚小怪。
這種态度就像《黑鏡:聖誕特别篇》的男主。
他作爲一名用攝像頭遠程操控他人的「戀愛導師」,因爲偷窺被警方逮捕。
面對這項罪名,他辯解道:
我隻是爲一些孤獨的男人提供了一項服務。
但要知道,如同語言霸淩也是一種暴力,數字侵犯也是一種性淩辱。
還有人曾試圖将這種暴行用作遮羞布。
之前在景甜私密視頻洩露事件中,有人「好心」提議:
不如将這個視頻當作是 AI 換臉,這樣就不會那麽難受。
說出這種話的人,顯然沒有意識到事情的嚴重性。
且先不說,身爲受害者的景甜爲什麽要主動粉飾自己遭受的傷害。
就單說 AI 換臉本身,有誰能保證當這種事情形成規模後,會不會滋生實質的侵害?
反正在這次韓國事件中,不少加害者們直接公開了受害者的真實身份、家庭住址。
如果這些信息真的被那些心懷不軌的人拿到,後果不堪設想。
再進一步說。
如果有人在實施真實侵害後,反過來利用這種理由掩蓋自己的罪行。
那到時候會發生怎樣的事情,魚叔甚至連想都不敢想。