快科技 2 月 20 日消息,近日 OpenAI 發布了首款文生視頻模型—— Sora 模型。
該模型可以根據用戶輸入的文字描述,生成一段長達 1 分鍾的高清流暢視頻,也能通過現有的靜态圖像生成視頻,還能對現有視頻進行擴展、填充缺失内容。
從目前的效果來看,Sora 生成的視頻效果非常出色,場景逼真、細節真實。
360 創始人、董事長周鴻祎最新發布視頻分享自己對 Open AI 最新的文生視頻大模型 Sora 的見解,稱 "Sora 工作原理像人做夢,未來 AGI 比的就是算力和對世界的理解。"
他在視頻中表示:" 用傳統計算機、圖形學、影視工業特效的方法來重現一些畫面的時候,我們喜歡的是 3D 件模型、建立光照、搞粒子模型、然後一幀一幀地渲染。這種方法實際上是效率非常低、耗費非常貴的。是用一種最笨的方法模拟出了這個世界。
視頻
但 Sora 的方法非常像人類的做夢——我們會夢到各種奇奇怪怪的東西,做夢所産生的依據是我們在正常生活中眼睛看到的東西,這種積累的經驗,是不需要 3D 建模然後一幀一幀渲染的。"
他還把近期人們關注的 Sora 在視頻中出現的 Bug 等比做人在做夢時同樣會産生的幻覺等違背現實規律的情況。
值得注意的是,周鴻祎此前還強調,Sora 可能給廣告業、電影預告片、短視頻行業帶來巨大的颠覆。