11 月 27 日淩晨,OpenAI 的文生視頻模型 Sora,被人惡意洩露了 API,使其短暫地開放了 1 小時左右。

據了解,此次洩露事件是由于自今年年初 OpenAI 首次預告了其文本轉視頻 AI 模型 Sora 後,一直沒有提供任何具體的更新。導緻一群參與 OpenAI 新型文本轉視頻 AI 模型 Sora 的測試藝術家,因對公司的不滿而洩露了該模型的早期訪問權限。
在 OpenAI 介入并關閉相應權限之前,已經有不少人制作了 AI 視頻并流出。此次對于 OpenAI 會造成什麽樣的影響呢 ?
藝術家們的憤怒
據悉,洩露者通過 AI 開發平台 Hugging Face 發布了一個與 Sora API 相關的項目,利用早期訪問的認證 token,創建了一個前端界面,允許用戶生成視頻。通過這個前端,任何用戶都可以輸入簡短的文字描述,生成最長 10 秒、分辨率高達 1080p 的視頻。

随後,許多用戶在社交媒體上分享了生成的視頻示例,這些視頻大多帶有 OpenAI 的視覺水印。然而,短暫地開放了 1 小時左右,前端界面就停止了工作,外界猜測 OpenAI 和 Hugging Face 可能已經撤銷了訪問權限。

而且,這些藝術家在 Hugging Face 這一公共 AI 模型平台上發布了他們的抗議信,聲稱自己在測試過程中被公司利用,成爲 " 無償的研發和公關工具 "。
在這封公開信中,藝術家們表示:" 親愛的企業 AI 領主們,我們獲得 Sora 的測試權限時,被承諾是早期測試者和創意合作夥伴。然而,我們認爲自己隻是被引誘進入一種‘藝術洗白’的過程,爲 Sora 做宣傳。" 他們強調,藝術家不是公司的 " 免費 bug 測試員、宣傳工具、訓練數據或驗證 token"。

有意思的是,在公開信相關網站上,它獲得了 122 名聯名支持者,其中甚至出現了馬斯克的名字。但考慮到簽名系統不需要嚴格的身份認證,暫時不能确定其是否爲馬斯克本人。

在事件發生後,當有媒體聯系 OpenAI 時,OpenAI 并未證實 Sora 洩露的真實性,但強調參與 " 研究預覽 " 的藝術家是自願的,并不需要提供反饋或使用該工具。
科技旋渦認爲,年初 OpenAI 首次向世界展示了 Sora,其生成視頻的時長、質量讓人耳目一新,但幾乎一年時間過去了,OpenAI 對 Sora 還沒有有效更新,不過這還不是最可怕的,如果當它的正式版本發布後,已經屬于落後的技術,那才是 OpenAI 的悲哀。
OpenAI 的安全問題
Sora 相關項目的洩露很容易讓人們聯想到安全的問題,如果這個事件繼續發酵,很容易讓大家對利用大量數據進行訓練的 AI 公司失去信任。
而且,這樣的安全隐患随着一位已辭職的 OpenAI 團隊負責人的發言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的 OpenAI 正在解散其聚集于 AI 安全研究的 "AGI Readiness" 團隊,該團隊曾經負責向這家 AI 初創公司提供如何處理與應對越來越強大的 AI 技術方面的解決方案與建議,以及提供當今世界是否準備好管理這些技術方面的建議。"AGI Readiness" 團隊曾經的團隊主管表示,希望在外部繼續 AGI 領域的相關研究。近期越來越多迹象表明,OpenAI 似乎全身心投入 AI 創收,無暇顧及 AI 安全。

而在本月初,OpenAI 再痛失一員大将,OpenAI 安全研究副總裁 Lilian Weng 發出長信,官宣離開 OpenAI 的安全團隊。
今年 9 月,OpenAI 宣布其安全與安保委員會将成爲獨立的董事會監督委員會,該委員會于今年 5 月成立,負責處理有關安全流程的争議。該委員會最近結束了爲期 90 天的審查,對 OpenAI 的流程和保障措施進行了評估,然後向董事會提出了建議。
高管離職和董事會變動的消息也是繼今年夏天圍繞 OpenAI 的安全問題和争議日益增多之後傳出的,此時 OpenAI 與谷歌、微軟、Meta 和其他公司正處于生成式人工智能軍備競賽的風口浪尖——據預測,這個市場将在十年内達到 1 萬億美元的營收規模——因爲各行各業的公司似乎都急于增加人工智能聊天機器人和代理,以避免被競争對手甩在身後。
據 The Information 援引一位了解相關會議情況的人士透露,今年夏天,在一些并未公開的會議上,奧特曼的團隊向美國國家安全官員展示了 " 草莓 " 模型。

報道指出,通過向政府官員展示一項尚未發布的技術,OpenAI 可能爲人工智能開發者樹立了新标準,尤其是在先進人工智能日益成爲潛在安全隐患的今天。此次演示可能是 OpenAI 努力向政策制定者提高透明度的一部分,但如果政策制定者認爲該項技術形成威脅,那麽他們可能給公司帶來麻煩。
不過,一些業界人士對此并不買賬,因爲 OpenAI 并未向公衆提升透明度。AI 初創公司 Abacus.AI CEO Bindu Reddy 表示,封閉的 OpenAI 将他們最好的大模型藏在背後,以此來取得領先優勢。" 如果沒有開源 AI,我們都會完蛋,我們可能會把文明的控制權交給 1 到 2 家公司。"
寫在最後
雖然這次藝術家們的洩露隻是抒發出自己的不滿,好像沒有造成更大的影響,但 OpenAI 的 ChatGPT 平台被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環境中遊刃有餘,文件上傳、命令執行甚至文件結構浏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現,進一步凸顯了 OpenAI 在網絡安全方面的潛在風險。
>>
