誤會了誤會了,被傳爲 "Sora 作者之一 " 的上交大校友謝賽甯,本人緊急辟謠。
他的聲明發在其朋友圈,以及 " 交大校友荟 " 賬号交大 org上,主要說了幾點:
Sora 完全是 OpenAI 的工作,和謝賽甯本人一點關系沒有。
但他後面将在紐約大學開展相關研究
要開發 Sora 這樣的成果,人才第一, 數據第二,算力第三。
《黑鏡》等科幻作品裏的部分故事可能很快成爲現實,需要準備好對應的監督體系。
傳播不實信息的原文章也在大家幫忙舉報後被平台下架了。
這番誤會終于算是告一段落。
不過謝賽甯透露的信息中還有一些細節值得關注,相熟的 Sora 開發領隊 Bill Peebles 說團隊基本不睡覺高強度工作了近一年。
而 Bill Peebles 在 2023 年 3 月入職 OpenAI,距今剛好不到一年。
也從側面否定了之前傳聞中的 "Sora 早就開發完成,隻是一直沒發 "。
至于爲什麽會有這個離譜的誤會,還要從謝賽甯與 Peebles 合作的一篇論文說起。
爲什麽會有這個誤會?
Sora 技術報告引用的一項研究成果DiT 模型,正是謝賽甯與 Peebles 合著。
那時 Peebles 博士在讀期間到 Meta 實習,謝賽甯也還沒完全離開 FAIR。
DiT 首次将 Transformer 與擴散模型結合到了一起,相關論文被 ICCV 2023 錄用爲 Oral 論文。
雖然 Sora 模型具體架構細節沒有公布,但謝賽甯此前從 Sora 技術報告中分析出出,很可能就是建立在 DiT 的基礎之上。
除此之外,Sora 還參考借鑒了許多其他學術界成果。
如把訓練數據編碼成 Patch 的方法,引用了谷歌 DeepMind 的 Patch n ’ Pack 等。
博采衆長,同時堅定在 Scaling Law 指引下力大磚飛,才造了令人驚歎的 Sora 成果。
大神确實也是大神
排除掉這個誤會,謝賽甯确實也是 AI 研究領域的一位大神,目前在紐約大學任助理教授。
他本科畢業于上海交通大學 ACM 班,18 年博士畢業于加州大學聖叠戈分校。
畢業後謝賽甯加入 Facebook AI Research(FAIR),曾與何恺明合作提出 ResNeXt。
目前他在谷歌學術總被引用數達到 4 萬 5,h-index 也高達 31。
就在 Sora 發布不久前,他還領導紐約大學團隊對 DiT 模型來了個大升級,新模型稱爲 SiT。
SiT 與 DiT 擁有相同的骨幹網絡,但質量、速度靈活性都更好。
謝賽甯認爲,跟進 Sora 相關研究是學術界可以爲這個時代肩負的重責之一。
讓我們一起期待他的新成果吧。
參考鏈接:
[ 1 ] https://mp.weixin.qq.com/s/4ox9ITnd8TE2_Sior3eaEA
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~