Stable Diffusion 是一個生成式 AI 模型,簡單點來說就是一個會畫畫的 AI,當你輸入一個關鍵詞後,它就能創作出一個相關的圖像。
比如,讓他畫一個騎在馬上的宇航員,它就能很快創作一張(看起來像是真的)相關照片。
畫得挺好
AI 難道已經可以變成可以替代人類的畫家了嗎?然而,有一些 Stable Diffusion XL(以下簡稱 SD-XL)似乎得了病,變得不那麽 " 聰明 ",還輸出了一些莫名其妙的東西。
當你要求 SD-XL 畫一隻狗,它:
而病得更重 SD-XL 則輸出了一隻貓。
怎麽回事啊!AI 怎麽忽然指貓爲狗了,而更奇怪的是,當你讓 AI 畫一輛車,它則輸出了一隻牛。
在下面這張圖片中,你可以看到,AI 确實病得不輕,狗、車、帽子最後都變成了完全不相關的貓、牛、蛋糕。它似乎沒辦法再輸出一張像上文描述的 " 宇航員 " 一樣準确的以假亂真的圖片。
第 1 排是正常 SD-XL 生成的圖片,而第 2、3、4 排分别是由病的不同程度的 SD-XL 生成的圖片。|參考資料 1
之所以會這樣,是因爲人們開發了一款讓生成式 AI" 中毒 " 的軟件。
Nightshade 由芝加哥大學的研究人員發布,是一種能夠破壞生成式 AI 模型的工具。AI 靠大量訓練數據來更新叠代,變得更加聰明,而 Nightshade 所做的,就是在訓練數據中加入一些肉眼難以看見的 " 毒素 ",幹擾 AI 的學習,從而讓 AI 模型以混亂且不可預測的方式崩潰。
而上面你所看到的,正是經過 Nightshade 幹擾的 AI,在沒有中毒前,AI 的确能準确地輸出一張狗和車的照片,而在 500 次和 1000 次 " 有毒 " 訓練數據的訓練後,AI 開始輸出亂七八糟的内容。
經過 " 毒害 " 後,AI 沒辦法再按照指令作畫了。|參考資料 1
要給 AI" 下毒 " 的原因,與我們在 AI 時代不得不面對的種種問題相關。自生成式 AI 變得越來越聰明以來,制造 AI 的科技巨頭們也面對着接連不斷的訴訟和争議,藝術家們認爲,他們的作品是受到版權和知識産權保護的,但 OpenAI、Meta、Google 和 Stability AI 卻直接拿作品來進行數據訓練,這是一種 " 竊取 " 行爲。
2024 年雖然才過去 1 個月,但 AI 與知識版權相關的争議已經鬧得沸沸揚揚。2023 年 12 月 27 日,美國媒體對微軟和 OpenAI 提起訴訟,指控 OpenAI 侵犯其文章版權,進行大規模複制來訓練生成式 AI。
1 月 25 日,社交平台 X 限制了平台上對泰勒 · 斯威夫特的名字搜索,原因是 X 上流傳着大量和她相關的假圖。這個令人震驚的事件更是一個警醒,它意味着,任何人的照片都可以被 AI 制成令人難以忍受的假圖,我們很可能因爲這個而受到嚴重的傷害。
Nightshade 便是一個具有攻擊性和操縱性的工具,需要的藝術家可以下載這個工具,對 AI 進行錯誤的訓練并導緻其故障,用以保護自己的作品。而爲了不讓 AI" 中毒 ",開發 AI 科技巨頭們也将不得不正視并解決一個問題:如何尊重藝術家的作品版權。
在自今年 1 月 18 日發布後的五天内,Nightshade 的下載量就已經達到了 25 萬次。
事實上,在開發 Nightshade 之前,芝加哥大學的這個團隊還推出過另外一款保護藝術家的免費應用程序:Glaze。和 Nightshade 類似,Glaze 也是給圖片施加一些微小的改變,讓 AI 難以辨認一幅作品的風格。
第 1、2 列是藝術家的風格,第 3 列是沒有用 Glaze 時,AI 的仿制品。
第 4 列是用了 Glaze 時,AI 以爲自己看到的。第 5、6 列則是 AI 在學習經 Glaze 處理過後的圖片後,生成的(風格完全不相關的)" 仿制品 "。|參考資料 3
當一位藝術家用 Glaze" 改造 " 了自己的抽象風格作品(舉個例子),然後将其發布到網上,被 AI 抓取學習後,AI 可能會将其錯誤地理解爲寫實風格。日後也會輸出一些毫不相關的東西。Glaze 這個工具主要是保護藝術家,以免他們獨特的風格被 AI 學走。而 Nightshade 則主要是爲了攻擊不顧版權的 AI。
這些工具是如何給 AI" 投毒 " 的呢?此項目負責人 Ben · Zhao 在接受科技媒體采訪時解釋道:這是因爲 AI 和我們人類感知世界的方式存在根本性的差距。
他說:" 正是因爲這兩個世界如此不同,我們就可以實現機器學習視角中,效果如此顯著的失真,而在人類視角中失真的程度最小。"
在人眼看來,經 Glaze 處理過的圖片(右)和原圖(左)差别很小。|參考資料 3
而由于生成式 AI 的特性,這種 " 投毒 " 也會污染到其他相關的詞,當它污染了 " 狗 ",也會相應地污染 " 哈士奇 "、" 狼 " 等類似的詞。而且在截圖、拍照後,這種 " 毒素 " 依然存在。
還有一些工具,比如 DeepMind 團隊在 2023 年 8 月推出的 SynthID,則是給 AI 生成的作品加上一個 " 看不見的 " 水印,這樣大家以後可能就知道哪些照片是 AI 僞造的。
除了圖片,SynthID 還能給 AI 生成的音樂也加上 " 聽不見的 " 水印。
如今,創建 Nightshade 和 Glaze 團隊還提出要把這兩種軟件集成在一起。不過,工具也需要不斷更新,Glaze 團隊自己也提到,這 " 并不是對抗 AI 模仿的永久解決方案,我們今天使用的技術總有可能被未來的算法所挑戰。"
不過如今,有越來越多的人嘗試用這種工具來保護自己,證明它的有效性,在這個過程中,我們也許可以漸漸弄清我們與 AI 的關系到底意味着什麽。