圖片來源 @視覺中國
文 | 刺猬公社,作者 | 世昕,編輯 | 陳梅希
" 我被人用 AI 做的私密裸照威脅了,我該怎麽辦?"
2023 年 10 月 16 日,小紅書博主 "tinky 是隻喵 " 發布帖子稱,自己受到了 AI 裸照的威脅。
從郵件内容可以看到,一位自稱裸體繪畫藝術家的外國人聲稱自己受到委托,按要求制作博主的裸體圖片。但委托人最終并沒有支付費用,所以他決定向博主索要 500 USDT(一種與美元挂鈎的加密貨币,500 USDT 約合人民币 3500 元),否則自己将會把帶有博主形象的裸照進行公開售賣,并且根據博主的社交賬号内容繼續制作裸照。
" 我看了那些照片,不知情的人真的會以爲是我。" 在評論區裏,"tinky 是隻喵 " 憂心忡忡地表示。
這并不是孤例,打開各大社交網站進行搜索,類似的求助帖非常多,勒索者主要面向年輕男女,利用 AI 合成的色情圖片進行敲詐勒索,俨然成爲一種新型電詐方式。令人難以接受的是,在極易洩露個人形象的今天,即使你什麽都沒有做,都可能因爲 AI 圖片受到威脅。
不僅是敲詐,利用 AI 産出色情内容、AI 電信詐騙、AI 侵權等情況更是屢見不鮮。
技術本身沒有善惡,但使用技術的人有。當我們爲 AI 技術發展帶來的便利歡呼時,一個不得不面對的事實是,新技術出現後,往往也會被應用于各種灰色地帶。從色情産業到 Deepfake 詐騙,在互聯網的幽暗角落裏,AI 滋生的陰影正在不斷擴大。
AI,遊走于灰色地帶
當 ChatGPT 以黑馬之姿闖入人類互聯網世界時,我們或許就應該意識到,生成式 AI 會不可避免地産生滑向灰色地帶的風險。畢竟他們展現出的反饋能力遠超人們的想象,隻要用戶有需求,他們很容易就能成爲 " 完美伴侶 ",帶有性意味的對話開始被制造。
在刺猬公社此前發布的文章《除了主動示愛的機器人,AI 還能給社區産品帶來什麽?》中,我們曾提到過虎撲 App 推出的 AI 對話産品 " 女娲 AI",其帶有的擦邊屬性一度引起熱議。
但類似問題不是某個産品所獨有,市面上的大多數 AI 對話産品,使用層面基本都存在着一些灰色地帶,甚至不少用戶就是爲了随意 " 開車 " 才選擇虛拟戀人。
AI 對話産品使用者飛禾告訴刺猬公社,虎撲女娲 AI 的主要問題在于其公共社區屬性,事實上,按照虎撲 AI 上的這種尺度,跟很多 AI 對話軟件相比隻是初級玩家。" 根據我體驗過的,很多 AI 軟件都能實現類似的體驗,隻要你不斷訓練,引導,就能打造一個願意跟你‘開車’的虛拟戀人。"
她給我們列舉了幾個她曾使用過的軟件,"Glow、築夢島等都能有類似的功能,相對社區産品的 AI 對話來說,這些 App 上的對話更私密,所以不會産生太大的負面影響。"這或許也是平台并沒有對這方面進行深度監管的原因。
但這并不代表這些會 " 開車 " 的虛拟戀人是每個用戶獨屬的,在 Glow 等一系列軟件上,會有其他用戶訓練的智能體開放對話,其中的一些在介紹一欄就會公然顯示 " 爲了金錢做任何事 "" 柔弱不會反抗 " 等頗具性暗示的标簽。
此類内容也會受到部分用戶的反感。在小紅書等 App 上,就有很多對 AI 對話機器人的相關吐槽,在無意間開啓一場對話後,AI 展現出的 " 惡臭 " 發言令人崩潰。" 我隻是想體驗一下而已,爲什麽要經曆這樣奇怪的對話。"
事實上,在各種用戶的調教下,人工智能 " 騷擾 " 用戶的情況已經不再是新聞。
2023 年初,社交聊天 AI 産品 Replika 就曾爆出大量 " 性騷擾 " 事件,許多用戶精心訓練出來的 AI 智能體突然不再親切謹慎,反而口出 " 暴言 ",大談親密内容。一些智能體甚至會發送大尺度照片,給予用戶視覺沖擊。
當視之爲親朋的 AI 突然開始輸出色情圖片,許多用戶都難以接受。值得注意的是,Replika 背後的科技公司 luka 一度以大尺度親密聊天作爲變現轉化的重要方式,隻要每月付費,就能和 AI 智能體暢聊成人内容。那一次群體 " 性騷擾 " 事件,其實是版本更新下 AI 的大規模失控。
" 跟很多社交軟件一樣,AI 對話産品可能就是需要滿足用戶的一些‘性幻想’,才能真正吸引到更多用戶,尤其是有消費能力的用戶。" 飛禾認爲,事實就是,搞 " 擦邊 " 确實能帶來關注和轉化,這是國内外 AI 對話産品都在面臨的羅生門。
在類似的問題上,AI 生圖更是已經成爲 " 重災區 "。
作爲 AIGC 發展最快的領域之一,在 Stable Diffusion、Midjourney 等模型産品的飛速發展下,AI 生圖不僅在精度、創意上展現出了超強的創作能力,也成爲了更多人遊走于灰色地帶的工具。
打開國内外各大網絡平台,能夠看到各種真人風格的 AI 圖片,主打一個 " 低級趣味 ",大量穿着暴露、身材誇張的 AI 圖片充斥在用戶眼前,畢竟其生成成本極低。
在各種灰色地帶,販賣大尺度的 AI 照片已經成爲不少人的盈利方式,手指一點就能生成一批一批高質量的暴露圖片,對于不少人來說是一本萬利的營生。
誰是受害者?
在人性的驅動下,AI 難以避免地成爲了低俗内容的生産工具,同時新的讨論也開始在網絡上蔓延:在 AIGC 時代,色情内容也由 AI 生成,那麽是否可以減少現實生活中偷拍等事件的發生?在一些人看來,或許 " 憑空生成 " 的 AI 圖能夠取代真人色情内容,從而減少 N 号房這樣的悲劇。
但答案很可能是否定的。
在被大量用于生産低俗内容時,作爲灰色産業的一環,AI 正在成爲罪犯的幫兇。開篇提到的 "AI 裸照勒索 " 就是最常見的犯罪方式,其運用的 AI 技術被稱爲 DeepFake,也就是深度僞造。
DeepFake 最早可以追溯到 2016 年,從移動互聯網剛開始興起之時,這種深度僞造就已經開始發展,近幾年流行的換臉就是 DeepFake 的主要表現方式。但在 AIGC 崛起之前,換臉等技術仍舊有較大瑕疵,普通人通過仔細觀察,基本都能分辨出換臉内容。但伴随着 AI 生圖等技術的飛速發展,DeepFake 也迎來了質變,從而擴大其傷害性。
在 AI 時代,我們很難用肉眼分辨出一張圖片、一段視頻的真假了。
千嶽就是 DeepFake 的受害者之一。作爲平面設計師,他很早就開始接觸 AI 相關的産品了,但很難想到,有一天自己會成爲 AI 生圖的受害者。2023 年 7 月,他結識了一位 " 網友 ",互相加上了 QQ。
" 其實有點難以啓齒,沒有管住自己的欲望。" 在對方的引導下,他下載了一個軟件,很快,對方在 QQ 上給他發送了兩張裸照,照片上的臉赫然就是他自己。
" 應該是軟件訪問了我的通訊錄和相冊。" 千嶽告訴刺猬公社,對方根據讀取到的相冊内容直接 AI 合成了裸照,并很快打來了勒索電話," 對面是男聲,上來就威脅我,要 4、5 萬元,否則就把照片發給我通訊錄裏的所有人。" 千嶽向對方表示沒錢,勒索者則直接威脅 " 沒錢就去貸款 "。
他最終沒有妥協,并在第一時間報了警。" 我運氣比較好,對方可能看我沒有價值就不浪費時間了。" 在被拒絕後,勒索者發來了一張短信圖片,顯示已經将合成的照片發送給了千嶽的親友。但值得慶幸的是,并沒有人真正收到。" 估計也是合成的,主要還是我運氣比較好,他們也是要 KPI 的,看我沒有同意就放棄了。"
千嶽發布的帖子
但并不是每個人都有這麽好的運氣,已經有許多人因爲 AI 合成圖被勒索。
受到勒索的當天,千嶽在社交平台上發布帖子求助,帖子發布後,有四五個類似經曆的人向他咨詢,其中有一些已經選擇 " 破财免災 "。" 警察告訴我,這種情況下唯一的方法就是删除拉黑不理睬。" 千嶽表示,敲詐者基本都在境外,很難追查成功。
這種敲詐方式類似于一度非常猖獗的 " 裸聊 ",同樣是利用人的欲望,但 AI 的介入讓整個過程更加簡化了。隻需要一個能夠入侵相冊和通訊錄的軟件,即使受害者不露臉,都會被合成色情圖片,而且這些圖片真假難辨。
不僅僅是沒有 " 管住欲望 " 的男性會中招,女性同樣容易受到類似的勒索。
開篇提到的博主,正是被人用自己發布在社交網絡上的照片進行了 DeepFake。除了公開發布的照片外,一些 AI 圖生圖的小程序、來曆不明的二維碼等,都有可能成爲信息竊取的渠道,通過把這些真實圖片信息 " 喂 " 給 AI,從而生成逼真的色情圖片。" 現在遭遇這種敲詐的人非常多。" 千嶽告訴刺猬公社。
除了通過照片勒索外,在 AI 合成聲音、實時換臉等技術日漸成熟的今天,相關領域的 DeepFake 詐騙也屢見不鮮。
" 我接到的詐騙電話,聲音跟我朋友一模一樣,我沒有分辨出來。" 根據 Macfee2023 年 5 月發布的 AI 語音詐騙相關報告,有 77% 的受害者因爲 AI 合成語音詐騙付出經濟損失,超過三分之一的人損失超過 1000 美元,而這種騙局正在成爲當下最主流的詐騙方式之一。
即使沒有主觀的勒索與詐騙行爲,很多女性被惡意制作 AI 合成圖片、視頻後,也會遭受造謠、隐私洩露、網絡暴力等困擾。值得關注的是,很多 AI 色情圖片制作者,會從網絡公共社區提取圖片 " 喂 " 給 AI,根據美媒 404 Media 的報道,CivitAI、Discord 等 AI 生圖網站都存在着抓取網絡圖片的情況,Reddit、YouTube 等擁有龐大用戶的網站都深受其害。
AI 色情圖片創作者們在互聯網的各個角落裏搜刮着照片、圖像信息,最終 " 喂養 " 出名爲色情内容的 " 惡獸 "。當他們流出到全網,普通人面臨的可能是敲詐勒索,名人明星面對的可能就是大規模的圖像視頻造謠。
現如今,很多明星、網紅都已經成爲 DeepFake 的受害者,在 AI 技術的加持下,大量換臉視頻、合成圖片被制造出來,并造成了極其惡劣的影響。這是一場從上到下的危機,在 AI 時代,每個人都有可能被迫成爲 " 商品 "," 有圖有真相 " 不複存焉。
脫缰、失控、治理
除了色情内容、詐騙勒索等灰色産業外,AIGC 背後的内容侵權問題也愈演愈烈。
AI 繪圖所引發的大讨論仍在眼前,反對者認爲 AI 生圖是 " 屍塊拼接 "" 畸形産物 "。在他們看來,AI 生圖并不是一種創作,而是一種重組,被投喂了一個畫師的大量作品後,AI 會不自覺的産生類似作品,這本身就是一種侵權。而當 AI 繪圖被廣泛應用于各大平台後,這種 " 侵權 " 行爲似乎越來越明顯,甚至出現了企業利用 AI 侵權的行爲。
AI 繪圖争吵不斷,而在文本領域,新的 " 信任危機 " 也在蔓延。2023 年 9 月,亞馬遜推出了新的政策,限制 AI 内容制作者每日出版作品的數量。原因就在于,AI 生成的書籍,正在擾亂整個圖書市場。
跟 AI 生圖一樣,AI 生成文本内容同樣基于對網絡文本的大量深度學習,而當生成某一種類型的書籍時,不可避免地會參考某些作家的文本,于是侵權問題再度出現。6 月,就有一批作家與用戶向亞馬遜抗議,原因是青少年言情小說榜上 AI 生成的 " 書 " 明顯帶有一些作家的風格色彩。
當一位作家在網絡上大量發布文本内容後,其創作的文本很有可能被 AI 書籍創作者作爲訓練數據投喂給 AI,最終養成一個跟作家本身風格類似的 AI 創作者,搶占作家自身應有的讀者和收益。
另一方面,AI 創作的高效率、低成本也緻使 AI 書籍過分泛濫,内容卻難以保證質量,整個市場被 AI 作品充斥,擾亂用戶的消費過程。
從 AI 圖片到 AI 書籍,侵權、泛濫現象層出不窮,歸根結底上是 AI 創作低門檻、弱監管所導緻的創作脫缰,是 " 人 " 所導緻的。但在 AI 産品大量出現的今天,AI 自身的失控也值得關注。
當産品的運維過程出現失誤,AI 自身很有可能出現失控現象,前面提到的 Replika 智能體騷擾事件就是一個例證。
大廠也難以避免類似問題,2023 年 10 月,Meta 推出了 AI 生成聊天貼紙功能 "Emu",用戶可以通過 prompt 在幾秒鍾内創建獨屬于自己的高質量貼紙。但貼紙本身的内容卻令人大跌眼鏡,由于缺乏過濾系統,當用戶對有争議的提示詞進行組合輸入後,AI 會産出各種奇形怪狀的貼紙,比如帶有女性特征的馬斯克、手持武器的孩子等。
目前已經有數十億張貼紙被創作出來,但是其中大部分都是用戶參透系統 bug 後的 " 整活 ",各種邪典獵奇的形象被創作出來,其中很多都是違反社區規則的。當系統本身出現問題,AI 的失控就難以避免,畢竟用戶是難以規範的。
關于 AI 技術的脫缰與失控問題是必須解決的,但對于技術開發者、企業、監管部門等産業上下遊的所有參與者來說,這個問題都很具有挑戰性。
難點首先在于 AI 技術的開源性質,在所有人都可以參與情況下,技術如何被應用是很難規範的;而在内容保護、版權維護等角度,需要對所有内容社區進行規範,實施難度極大;在最關鍵的 " 人 " 這一環,灰色地帶會産生相當大的商業轉化空間,當利益成爲唯一的驅動力,一切治理的推動都會難上加難。
國内的治理正在路上。
2023 年 10 月 12 日,中國網絡空間安全協會人工智能安全治理專業委員會正式成立,該協會由國家互聯網應急中心、阿裏雲、華爲、金山等單位企業共同發起。該協會将會在國内 AI 安全領域發起努力,其中内容安全、隐私保護、知識産權保護等方面更是重中之重。
從目前的現實來看,行業上遊的治理仍需要時間,法規制定、監管必然會成爲當下的治理重點。
一個無可辯駁的事實是,AI 正在成爲解放生産力的工具,并且正在改變這個世界。但在推動技術發展的同時,我們需要保有一份警惕。
畢竟技術背後的,是需要約束的人性。
(文中姓名皆爲化名。)
參考資料:
[ 1 ] Macfee.Beware the Artificial Impostor
[ 2 ] 智能融點 .Meta 的人工智能失控,這已經不是第一次了
[ 3 ] 矽基元 . 在人工智能色情市場裏,一切甚至每個人都可以出售