不希望自己作品被 Stable Diffusion" 白嫖 " 的畫家們,可以松口氣了!
Stable Diffusion 3.0 版本将會提供一個選項:
藝術家們可以選擇将自己的畫作納入Stable Diffusion 3 的訓練數據集,或從數據集中删掉。
據了解,未來幾周内,這個操作就會被開啟。
不過,承接這個任務的不是 Stability AI 本身,而是一個叫Spawning的藝術家倡導組織。
自由選擇納入或删除作品
選擇在 Stable Diffusion3 中納入或删除自己的作品,步驟十分簡單。
畫師們隻需要在網站"Have I Been Trained?"注冊,并表明自己希望在訓練數據集中删除或者納入哪些自己的作品。
而後,Spawning 會收集藝術家們在網站上的意向。
網站 Have I Been Trained 背後是LAION-5B 訓練數據集,它被用來訓練 Stable Diffusion 和 Google 的 Imagen AI 等模型。
LAION是一個非營利性的開源數據集,Stability AI 對其進行了部分資金資助。
具體操作是醬嬸的:
首先需要在 Have I Been Trained 上注冊一個賬戶,然後上傳自己的畫作。
利用 LAION 圖像數據庫,搜索引擎會顯示出上傳畫作在數據庫訓練集中的匹配項。
這個時候,隻需要分别右鍵單擊幾個縮略圖,并在彈出選項中選擇選擇删除此圖像即可。
所有退出數據集的圖像,都會集中顯示在一個 " 選擇退出 " 的圖像列表中。
當然,上述還隻是進行操作的大概步驟,實施細節尚待完善。
Stability AI 創始人兼 CEO Emad Mostaque 在推特上表示,除了選擇删除外,Spawning 還将提供選擇加入請求。
也就是說,希望自己作品成為訓練集一部分的藝術家,同樣可以把自己的畫作添加到裡面。
這位 CEO 在推特上還說了:
我們希望為大夥兒建立更好的數據集,相信這是一項變革性的技術。
我們樂意與各方接觸,并盡可能做到透明。
承接數據收集工作的 Spawning,是一個總部位于柏林的藝術家倡導組織。
它很年輕,今年 9 月剛剛創建創建,創始人是 Dryhurst 夫婦和一位音樂家。
Dryhurst 表示,這三個月來,Spawning 一直在和 Stability AI 和 LAION 進行洽談,并得到了支持。
他還表示,Spwaning 是一個獨立組織,不會把收集來的數據拿去做任何别的事。
然而,人們對事情的擔心并不局限在數據隐私上。
一個方面是,要從訓練集中删除圖像,前提是你想要删除的圖像已經存在于 LAION 數據集中,且可以在 Have I Been Trained 上搜索到。
此外,目前沒有辦法選擇批量删除圖片,如果數據集中存在同一圖像的多個副本,那麼删除起來可是個費時費力的大工程。
而争議的目光最為聚集的一點,則是讓藝術家們紛紛跑去注冊一個和 Stability AI 或 LAION 沒有法律約束的網站。
目前在 Have I Been Trained 完成 " 删除圖像 " 的操作,整個流程可以說是暢通無阻。
沒錯,你既不會遇上任何試圖驗證身份的步驟,也不會遇上任何法律約束的條約。
也就是說,你想把别人的作品添加或從訓練集中删除,輕而易舉,完全不受阻礙。
△有人上傳了一張版權不屬于自己的圖像,并将其從數據集中删除
以及,針對 Spawning 在其公告視頻中關于同意的聲明,有網友指出,選擇退出過程不符合歐洲通用數據保護條例(GDPR)中關于 " 同意 " 的定義。
這份條例中規定,必須予以用戶主動同意的權利,而不是默認同意了。
誰擁有 AIGC 作品版權?
有看客擁有更激烈一些的看法:
設置的選項,應該隻有 " 要不要讓自己的畫作加入訓練集 ",而不是既有加入也有删除。
他們的觀點是,所有的藝術作品都應該默認被 AI 訓練集排除在外。
今年,AIGC 的力量噴薄而出,席卷全球各行各業。
自 DALL · E 2 在 4 月發布以來,創意産業一直對 AI 藝術圖像所有權的問題議論紛紛,尤其是畫家本人,他們中不少都抱着飯碗對 AIGC 罵罵咧咧。
△DALL · E 2 生成圖像
等到開源的 Stable Diffusion 在 8 月發布時,有關模型訓練的争議也越來越大。
用大量網絡中真人畫師的作品組成數據集,然後生成 AI 畫作,被有的網友批判為" 抄襲和偷竊 "。
但是這樣的 " 抄襲 " 很難衡量其頻次,因為擴散系統是根據來自不同來源的數十億張圖像進行訓練的。
而且,這樣生成的作品,版權到底歸屬哪一方?
是被 " 學習 " 的畫家,還是 AI 模型背後的公司,抑或是 AI 模型本身?
一切尚未有所定論。
前幾天,馬裡蘭大學和紐約大學的科學家們做了一項新研究,研究表明:
DALL · E2 和 Stable Diffusion 這樣的文生圖 AI 模型,可以并且确實在從它們的訓練數據集中,瘋狂複制數據集圖像的各個方面。
" 使用擴散模型生成數據的公司,可能需要重新考慮涉及知識産權法的任何部分。" 研究人員表示," 因為幾乎沒辦法驗證 Stable Diffusion 生成的任何圖像,是不是全新的,或者有沒有從訓練數據集中竊取别人的成果。"
△Stable Diffusion 從其訓練數據集中複制元素的更多示例(圖源:TechCrunch)
研究表明,模型複制的頻率取決于幾個因素,包括訓練數據集的大小,較小的集合往往比較大的集合導緻更多的複制。
與此同時,一旦模型記住了原畫作,就很難判定生成圖像和原始圖像之間的界限。
相似度達到多少,才能判定抄襲與否或版權歸屬何方呢?
研究人員也并沒有給出答案,他們隻是說:
我們不能抛棄擴散模型,應該考慮如何在不損害隐私的情況下保持它們的性能。
那麼,有沒有一種辦法,讓藝術家的版權受到保護需求,和 AI 生成技術繼續進步達到微妙的平衡?
Stability AI 承認,自家産品引發了對在線 AI 生成藝術的大規模道德辯論,其間主流還是抗議的聲音。
不過,就讓藝術家自動選擇加入或删除圖像這事兒,CEO 同志 Emad Mostaque 毫不忌諱地表達了自己的開放态度。
他在推特上寫道:
@laion_ai 團隊對反饋有着非常開放的心态,我們的初心是希望為所有人構建更好的數據集。
那麼,你是怎麼看待 AIGC 生成作品版權歸屬的?
參考鍊接:
[ 1 ] https://venturebeat.com/ai/stability-ai-to-honor-artist-opt-out-requests-for-stable-diffusion-3/
[ 2 ] https://twitter.com/EMostaque