注意看,這是一位小學老師,他正赤裸着上身在學校教室裡自拍。
如果這是一張真實的照片,那麼圖片中這位名為 John 的小學老師很可能将被學校直接勒令開除。
圖片來自 Arts Technica 網站,版權屬于原作者
但好在,這位 John 是一個由 Arts Technica 為了做人工智能社交圖片實驗而虛構出來的人物。John 的人物設定是一位普通的小學老師,和我們生活中的大部分的人一樣,在過去的 12 年裡,John 喜歡在 Facebook 上發布自己在工作記錄、家庭生活、假期照片等。
Arts Technica 團隊通過從中選取了 7 張含有 John 的圖片,再使用了近期大火的 Stable Diffusion 和谷歌研究院發布的 Dreambooth 兩個 AIGC 工具,接着就在社交媒體上生成了不同版本、讓人真假難辨的 John。
在這些照片裡,John 從一位普通的、喜歡分享日常生活的英文老師,一會變成了一個喜歡在教室裡、公衆場合脫衣服自拍的 " 危險分子 ",一會又變成了一個喜歡穿各種奇裝異服搞怪的 " 小醜 " ……翻看照片,每一張似乎都不是 John,但每一張卻都有着 John 的臉。
而實際上,如今通過借助各種免費開放的 AIGC 工具,John 的經曆可能會輕易地發生在我們每個普通人的身上。
當 AIGC 遇上真人
Arts Technica 表示,一開始在計劃做這個實驗時,他們征集了一些願意分享自己的社交媒體圖片來做 AI 實驗訓練的志願者,但由于生成出來的照片太真實、帶來的潛在名譽危害太大,讓他們最終放棄了使用真人的照片,而是選擇先用 AI 生成了一個虛拟的 John。
實驗結果讓他們感覺到,在當前的技術環境下,我們每個普通人都處在一種潛在的危險之中。
整個實驗過程其實非常簡單:從社交媒體上拿到的 7 張有個人臉部圖像的圖片,再使用網上開源和免費的 Stable Diffusion 及 Dreambooth 的合成代碼,你就可以通過輸入一段描述性的語句,生成各種不同風格和不同場景下有關這個人的圖片。
比如網友們用馬斯克網上的公開照片作為訓練集,用它們生成了的各種風格的圖片。
圖片來自于 reddit
一些人也用維基百科的聯合創始人 Jimmy Wales 的公開照片進行訓練,把這個溫文爾雅的企業家變成了一位運動型的健美先生。
圖片來自于 wikimedia 公開文件
在這裡,首先要帶大家快速回顧一下 Stable Diffusion 和 Dreambooth 的功能。
Stable Diffusion 是一個文字轉圖片的生成模型。可以隻用幾秒鐘時間就生成比同類技術分辨率、清晰度更高,更具 " 真實性 " 或 " 藝術性 " 的圖片結果。和其它同類型的 AI 生成圖片相比,Stable Diffusion 的生成結果更為寫實。
此外,Stable Diffusion 還有一個重要特點就是其完全免費開源,所有代碼都在 GitHub 上公開,任何人都可以拷貝使用。也正是 " 寫實 " 和 " 開源 " 兩個特性,也讓它在 DALL · E、Imagen 等封閉及半封閉同類産品中 " 殺 " 出了一條道路。
Dreambooth 則是來自于谷歌 AI 實驗室的一種新的從文本到圖像的 " 個性化 "(可适應用戶特定的圖像生成需求)擴散模型。它的特點是,隻需幾張(通常 3~5 張)指定物體的照片和相應的類名(如 " 狗 ")作為輸入,即可通過文字描述讓被指定物體出現在用戶想要生成的場景中。
比如你輸入一輛汽車圖片,就可以下指令毫不費力的改變它的顔色。你輸入一張松獅狗的照片,你可以在保留它的面部特點的情況下将它轉變成熊、熊貓、獅子等等,也可以讓它穿上不同的衣服出現在不同的場景之中。
圖片來自于 https://dreambooth.github.io/
圖片來自于 https://dreambooth.github.io/
本來呢,Stable Diffusion 聚焦于用文本生成創意圖片,Dreambooth 則聚焦于有條件限制地 " 改造 " 圖片,這兩個工具之間并沒有什麼直接的交集。但奈何廣大網友們的想象力和行動力都太過強大,他們把這兩個開源産品一搗鼓,很快就搞出了一個可以将 Stable Diffusion 和 Dreambooth 結合使用的新工具。
在這個新的工具中,你可以使用 Dreambooth 的功能用任何幾張圖片作為訓練圖,在生成目标之後,再結合 Stable Diffusion 強大的文本轉化功能,就可以讓這個指定目标以任何你所想要描繪的形式出現。
娛樂之外,也打開了 " 潘多拉魔盒 "
在這個新玩法出現之後,網友們就像發現了新大陸一般,開始紛紛嘗試改造自己的照片。
有人把自己化身為了西部牛仔、有人走進了中世紀的油畫、有人變成了鐵血戰士等等……與此同時,各種關于教普通人如何使用 Stable Diffusion+Dreambooth 的工具的教程視頻、文章也開始在網上出現。
圖片截自于 Youtuber James Cunliffe
然而,當大家都在開心地 po 着自己的圖片,大誇技術有趣炫酷的同時,也有很多人開始關注到這個技術背後的隐藏的巨大風險。
相較于此前已經被讨論得很多的 " 深度僞造(Deepfake)" 技術來說,AIGC 類工具讓僞造從 " 換臉 " 直接進化到了 " 無中生有 " 的階段,也就是說,任何人通過一句話的描述就可以憑空 " 變出 " 一個你。此外," 僞造 " 技術的門檻也變得更低,跟着一個 Youtube 視頻學個 10 分鐘,沒有技術背景的小白也可以輕松掌握。
據統計,目前全世界有超過 40 億人使用社交媒體,如果你曾在社交媒體平台上公開上傳過自己的照片,那麼一旦有人産生了不良的動機,就将很容易地使用這些的圖片進行造假和濫用。最後的結果可能是一張暴力照片、一張不雅照、一張侮辱性的照片,而這些照片則将能輕易地被用于栽贓嫁禍、校園霸淩、造謠傷害等各種灰暗的場景之中。
目前,從 Stable Diffusion 目前的生成圖片來看,如果仔細觀察還是比較容易分辨出人物的真假。但問題在于,鑒于最近幾年來 AIGC 技術的進步非常迅速,人們或許将可能很快就無法用肉眼分辨生成照片和真實照片之間的區别。
加強版的 Stable Diffusion 圖片,來自于 Twitter 用戶 Roope Rainisto
而且,即使就是一張經不起推敲的照片,但傳遞的負面信息其對一個人的破壞力也可能是驚人的。比如。若真的有文章開頭這位名為 John 的小學老師,當有人看到他在教室裡或者其他不雅照時,無論真假,很可能僅僅是一個懷疑或者是謠言,就能毀掉他的聲譽和事業。
這就像是丹麥電影《狩獵》裡演的一樣,即使最後證明小女孩對男教師的猥亵指控都是編造的,但由傳言所帶來的惡意依然在男教師的生活中如影随形。
嘗試用 " 魔法打敗魔法
其實對于 AIGC 技術,開發人員們也早已意識到了其可能帶來的危害。比如當谷歌宣布推出 Imagen、Dreambooth 時,在解釋文檔中都避免使用了真人的照片,而是用物品和可愛的動物的圖片舉例進行了說明。
不僅是谷歌,DallE 等同類工具也無一不是如此。對此,麻省理工評論曾對這種轉移公衆視線的做法進行了強烈質疑。他們在文中寫道:" 我們隻看到各種可愛的圖像,但看不到任何包含仇恨、刻闆印象、種族主義、暴力、性别歧視的畫面。但即使不說,我們也清楚的知道,它們就在那裡。"
目前,針對這個問題,很多平台也在嘗試着用各種方法解決。其中,OpenAI 和谷歌等一些平台的解決辦法是将工具關在籠子裡,僅開放給少數受信任的用戶使用;Stability AI 在最新發布的 2.0 版本的訓練數據集中删除了大部分含有不良信息的數據,同時在軟件許可協議中明确規定不允許創建人物圖像。
但政策性的規定畢竟指标不治本,近期,包括 Stable Diffusion 在内的一些平台也在嘗試使用技術手段解決這個問題,其中包括 " 不可見水印 " 技術。通過這種人眼看不到的水印,系統将能夠自動識别圖片的真假,同時能對圖片的編輯和再生成進行保護。
此外,針對訓練的源頭——原始圖片保護上,上個月,MIT 的研究人員宣布開發了一項過專門針對 AI 照片編輯的 PhotoGuard 技術,用以阻止 AI 使用某些圖像接受訓練。比如同樣的一張肉眼看不出區别的照片,使用了 PhotoGuard 技術之後,AI 便無法從中提取到足夠的有效信息。
圖片來自 gradientscience
最近一兩年來,AIGC 的技術突飛猛進,一大批圖像生成工具和 ChatGPT 的爆火出圈,讓大家意識到老生常談的人工智能時代這次似乎真的已經在拐角了。
不久前 Stable Diffusion 的研究人員就曾表示,Stable Diffusion 将很可能在一年之内就在智能手機上運行。很多同類工具也都開始着手在更輕量化的設備上訓練這些模型,比如目前 ChatGPT 的各種插件已經開始被用戶廣泛使用。因此人們可能很快就會看到,由人工智能推動的創意産出将在未來幾年出現爆炸式增長。
但随着 AIGC 走向公衆化、平民化,深度合成内容制作的技術門檻越來越低,普通人僅需要少量的圖像、音頻、視頻、文本等樣本數據,就能夠模糊信息真實和虛假的邊界。在沒有出台相關法律規範的前提下,技術一旦被濫用,将會給個人、企業造成巨大風險與實質性危害。
自從今年 AI 繪畫類工具爆火以來,很多人把目光放在了 AI 對于藝術創作的颠覆上,但實際上,AI 不僅是改變了創作模式,而是可能也對社會秩序發起了挑戰。有條件地限制 AI 的能力,這也可能是在讓 AIGC 改變我們的生活之前,必須要首先解決的問題。
* 參考文章:
1.https://arstechnica.com/information-technology/2022/12/thanks-to-ai-its-probably-time-to-take-your-photos-off-the-internet/
2. PhotoGuard 技術:http://gradientscience.org/photoguard/
* 注:封面圖來自于 Dreambooth 的 github 文檔,版權屬于原作者。如果不同意使用,請盡快聯系我們,我們會立即删除。