看!現在正有四位小姐姐在你面前大秀熱舞:
以爲是某些主播在短視頻平台發布的作品?
No,No,No。
真實答案是:假的,生成的,而且還是隻靠了一張圖的那種!
真實的打開方式是這樣的:
這就是來自新加坡國立大學和字節跳動最新的一項研究,名叫MagicAnimate。
它的作用簡單來說可以總結爲一個公式:一張圖片 + 一組動作 = 毫無違和感的視頻。
然後啊,這項技術一經公布,可謂是在科技圈裏掀起了不小的波瀾,衆多科技大佬和極客們紛紛下場耍了起來。
就連HuggingFace CTO都拿自己的頭像體驗了一把:
順便還風趣地開了句玩笑:
這算是健身了吧?我這周可以不去健身房了。
還有相當與時俱進的網友,拿着剛出爐的GTA6(俠盜獵車手 6)預告片中的人物玩了一把:
甚至就連表情包們也成了網友們 pick 的對象……
MagicAnimate 可以說是把科技圈的目光聚焦到了自己身上,因此也有網友調侃說:
OpenAI 可以休息一下了。
火,着實是火。
一張圖即可生成一段舞
那麽如此火爆的 MagicAnimate,該如何 " 食用 "?
話不多說,我們現在就來手把手地體驗一次。
目前項目團隊已經在 HuggingFace 中開放了在線體驗的頁面:
操作也是非常得簡單,隻需三步即可:
上傳一張靜态人物照片
上傳想要生成的動作 demo 視頻
調整參數,點擊 "Animate" 即可
例如下面就是鄙人照片和一段近期席卷全球的《科目三》舞蹈片段:
△視頻源:抖音(ID:QC0217)
也可以選擇頁面下方提供的模版進行體驗:
不過需要注意的是,由于 MagicAnimate 目前過于火爆,在生成的過程中可能會出現 " 宕機 " 的情況:
即便成功 " 食用 ",可能也得排大隊……
(沒錯!截至發稿,還是沒有等到結果!)
除此之外,MagicAnimate 在 GitHub 中也給出了本地體驗的方式,感興趣的小夥伴可以試試哦 ~
那麽接下來的一個問題便是:
怎麽做到的?
整體而言,MagicAnimate 采用的是基于擴散模型(diffusion)的一個框架,目的就是增強時間一緻性、保持參考圖像的真實性,并提高動畫保真度。
爲此,團隊首先開發了一個視頻擴散模型(Temporal Consistency Modeling)來編碼時間信息。
這個模型通過在擴散網絡中加入時間注意力模塊,來編碼時間信息,從而确保動畫中各幀之間的時間一緻性。
其次,爲了保持幀間的外觀一緻性,團隊引入了一種新的外觀編碼器(Appearance Encoder)來保留參考圖像的複雜細節。
這個編碼器與以往使用 CLIP 編碼的方法不同,能夠提取密集的視覺特征來引導動畫,從而更好地保留身份、背景和服裝等信息。
在這兩項創新技術的基礎之上,團隊進一步采用了一種簡單的視頻融合技術(Video Fusion Technique)來促進長視頻動畫的平滑過渡。
最終,在兩個基準上的實驗表明,MagicAnimate 的結果要遠優于以往的方法。
尤其是在具有挑戰性的 TikTok 舞蹈數據集上,MagicAnimate 在視頻保真度方面比最強基線高出 38% 以上!
團隊所給出的定性比較如下:
以及與 cross-ID 的 SOTA 基線相比,結果如下:
One More Thing
不得不說,諸如 MagicAnimate 的項目最近着實是有點火爆。
這不,在它 " 出道 " 前不久,阿裏團隊也發布了一個名叫Animate Anyone的項目,同樣是隻要 " 一張圖 " 和 " 想要的動作 ":
由此,也有網友發出了疑問:
這似乎是 MagicAnimate 和 AnimateAnyone 之間的戰争。誰更勝一籌?
你覺得呢?
論文地址:
https://arxiv.org/abs/2311.16498
參考鏈接:
[ 1 ] https://github.com/magic-research/magic-animate
[ 2 ] https://twitter.com/cocktailpeanut/status/1732052908227588263
[ 3 ] https://twitter.com/ProductHunt/status/1732116454647136449
[ 4 ] https://twitter.com/Gradio/status/1731992981715231162
[ 5 ] https://twitter.com/dylan_ebert_/status/1732152096621813954
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~