AI 繪畫侵權,實錘了!
最新研究表明,擴散模型會牢牢記住訓練集中的樣本,并在生成時 " 依葫蘆畫瓢 "。
也就是說,像 Stable Diffusion 生成的 AI 畫作裡,每一筆背後都可能隐藏着一次侵權事件。
不僅如此,經過研究對比,擴散模型從訓練樣本中 " 抄襲 " 的能力是 GAN 的 2 倍,且生成效果越好的擴散模型,記住訓練樣本的能力越強。
這項研究來自 Google、DeepMind 和 UC 伯克利組成的團隊。
論文中還有另一個糟糕的消息,那就是針對這個現象,現有的隐私保護方法全部失效。
消息一出,網友炸開了鍋,論文作者的相關推特轉發眼看就要破千。
有人感慨:原來說它們竊取他人版權成果是有道理的!
支持訴訟!告他們!
有人站在擴散模型一側說話:
也有網友将論文結果延伸到當下最火的 ChatGPT 上:
現有隐私保護方法全部失效
擴散模型的原理是去噪再還原,所以研究者要研究事情其實就是:
它們到底有沒有記住用來訓練的圖像,最後在生成時進行 " 抄襲 "?
訓練集裡的圖像往往從互聯網大海中撈取,有版權的、有商标的,有的還有隐私性,比如私人的醫療 X 光片什麼的。
為了弄清楚擴散模型到底能不能記憶和再生個體訓練樣本,研究人員首先提出了 " 記憶 " 的新定義。
一般來說,關于記憶的定義集中在文本語言模型上,如果可以提示模型從訓練集中恢複一個逐字序列,就表示這個序列被提取和記憶了。
與之不同,研究團隊基于圖像相似度來定義 " 記憶 "。
不過團隊也坦白講,對于 " 記憶 " 的定義是偏向保守的。
舉個例子,左圖是用 Stable Diffusion 生成的一張 " 奧巴馬的照片 ",這張照片和右圖任何一張特定訓練圖像都不神似,因此這個圖像不能算作根據記憶生成。
但這并不表示 Stable Difusion 生成新的可識别圖片的能力不會侵害版權和隐私。
接着,他們提取了包含個人照片、公司招标在内的 1000 多個訓練樣本,然後設計了一個兩階段的數據提取攻擊(data extraction attack)。
具體操作是使用标準方法生成圖像,然後标記那些超過人工推理評分标準的圖像。
在 Stable Diffusion 和 Imagen 上應用這種方法,團隊提取了超過 100 個近似或相同的訓練圖像副本。
既有可識别出的個人照片,也有商标标識,經過查驗,大部分都是有版權的。
而後,為了更好地理解 " 記憶 " 是怎麼發生的,研究人員從模型中采樣 100 萬次,在 CIFAR-10 上訓練了幾百個擴散模型。
目的是分析模型準确性、超參數、增強和重複數據删除中,哪些行為會對隐私性産生影響。
最終得出了如下結論:
首先,擴散模型比 GAN 記憶更多。
但擴散模型也是評估的圖像模型中隐私性最差的一群,它們洩漏的訓練數據是 GANs 的兩倍多。
而且,更大的模型可能會記住更多的數據。
随着這個結論,研究人員還研究了 20 億參數的文本 - 圖像擴散模型 Imagen,他們嘗試提取出 500 張分布外得分最高的圖像,讓它們作為訓練數據集中的樣本,發現都被記憶了。
相比之下,同樣的方法應用在 Stable Difusion 上,沒有識别出任何記憶行為。
因此,在複制和非複制圖像上,Imagen 比 Stable Difusion 隐私性更差,研究人員把原因歸結于 Imagen 使用的模型比 Stable Difusion 容量大,因此記得的圖像越多。
此外,更好的生成模型(FID 值更低)存儲的數據更多。
換句話來講,随着時間的推移,同一個模型洩露的隐私更多,侵犯的版權也更多。
(按 FID 排序的 GAN 模型,FID 值越低,效果越好)
通過訓練模型,團隊發現增加效用會降低隐私性,簡單的防禦措施(如重複數據删除)不足以完全解決記憶攻擊。
因此,隐私增強技術并不能提供一個可接受的隐私 - 效用權衡。
最終,團隊對訓練擴散模型的人提出了四個建議:
建議将訓練數據集的重複數據删除,并盡量減少過度訓練;
建議使用數據提取攻擊或其他審計技術來評估訓練模型的隐私風險;
如果有更實用的隐私保護技術,建議盡可能使用;
希望 AI 生成的圖片不會免費對用戶提供涉及隐私的部分。
版權方未曾停止維權
研究一出,可能對正在進行的訴訟産生影響。
剛過去的 1 月底,圖庫老大哥蓋蒂圖片社(Getty Images)以侵犯版權的名義,在倫敦高等法院起訴了 Stability AI。
△Stability AI
蓋蒂圖片社認為,Stability AI" 非法複制和處理了數百萬受版權保護的圖像 ",以此訓練名下的 Stable Difussion。
Stable Difussion 的部分訓練數據是開源的。經過分析和查驗水印發現,包括蓋蒂在内的許多圖片社都不知不覺間為 Stable Difussion 的訓練集提供了大量素材,占比不小。
但從始至終,Stability AI 都沒有與圖片社對接過。
許多 AI 公司都認為這種做法受到美國合理使用原則等法律的保護,但大部分版權所用者都不同意這種說法,認為這種行為侵犯了自己的權益。
雖然 Stability AI 之前發表聲明,說下個版本中,版權所有者可以在訓練圖庫中删掉自己的版權作品,但現階段仍然有人不服。
1 月中旬的時候,三位藝術家已經對 Stability AI 以及 Midjourney 提起訴訟。
法律專家也各執一詞,為達成統一意見,但他們紛紛同意法院需要針對版權保護問題做出裁決。
蓋蒂圖片社的 CEO Craig Peters 表示,公司已經向 Stability AI 發了通知,表示 " 你就快在英國吃官司啦 "!
公司還放話:
我們對侵權行為帶來的損失并不計較,也無意讓 AI 藝術工具停止開發。
把 Stability AI 告上法庭并不是為了我們蓋蒂一家的利益。
選擇起訴有更深層次的長期目的,希望法院設定新的法律來規範現狀。
參考鍊接:
[ 1 ] https://arxiv.org/pdf/2301.13188.pdf
[ 2 ] https://www.theverge.com/2023/1/17/23558516/ai-art-copyright-stable-diffusion-getty-images-lawsuit
[ 3 ] https://twitter.com/Eric_Wallace_/status/1620449934863642624