NFM 團隊 投稿
量子位 | 公衆号 QbitAI
機器學習讓計算機圖形學(CG)仿真更真實了!
方法名爲神經流向圖(Neural Flow Maps,NFM),四個渦旋的煙霧也能精确模拟的那種:
更爲複雜的也能輕松實現:
要知道,在這個 AI 應用滿天飛的時代,CG 物理仿真仍然是傳統數值算法的天下。
△NFM 模拟 " 蛙跳 "
盡管神經網絡應用在 CG 能創造目眩神迷的視覺效果,它卻無法嚴格、魯棒地描述物理性質。
△NFM 模拟 " 墨滴 "
也正是因此,基于神經網絡的物理仿真至今還處于概念驗證(proof of concept)的階段,所生成的效果也遠非 SOTA。
基于這個難題,來自達特茅斯學院、佐治亞理工學院以及斯坦福大學的研究團隊提出了神經流向圖這一新方法,通過将神經網絡的優異性質與先進的物理模型相結合,同時達到了前所未有的視覺效果和物理精确性。
該論文發表于圖形學頂刊 ACM Transactions on Graphics(TOG),并獲SIGGRAPH Asia 2023 最佳論文。
NFM 長啥樣?
研究團隊的核心觀點是:想利用 AI 去更好地解決物理問題,就不能局限地将可學習模塊(learnable modules)嵌入已有的方法框架(例如 SPH,stable fluids)中。
現有方法是針對傳統數值方法的能力範疇量身定制的,也正因爲如此,機器學習的發展所提出的一系列的全新的能力(例如 NeRF 對時空信号的緊湊表達),往往在已有的框架中找不到用武之地。
因此,研究人員認爲與其套用 AI 在現有的框架中,不如基于 AI 提出的新能力,來設計數學和數值的新框架,從而最大化這些能力的價值。
物理模型
基于上述思路,研究人員通過對物理和 AI 進行協同設計(co-design),構建一個超越 SOTA 的流體模拟器。
物理部分,NFM 首先使用了一套基于沖量的(impulse-based)流體方程,通過對常見的歐拉方程進行度規變換(gauge transformation),确立了速度場與流向圖(flow map)以及其空間導數的關系。
換言之,隻要可以得到精确的 flow map 數值解,那麽演化的速度場就可以被精确的重構出來。
爲了最精确地計算 flow map,NFM 提出了一個精心設計的 " 雙向行進 "(bidirectional marching)數值算法。
該算法比已有算法的精度高出 3 至 5 個數量級,但它同時也要求存儲長期的時空(spatiotemporal)速度場。
對大規模 3D 模拟來說,存儲單幀的速度場尚且存在挑戰,存儲數十上百幀的速度場則全然不可行。因此 " 雙向行進 " 的算法盡管精準,但用傳統的手段卻無法實現。
神經網絡存儲
NFM 巧妙地結合了基于流向圖的物理模型對于存儲高精度速度場的需求,和隐式神經表示(implicit neural representation,或 INR)進行高質量時空信号壓縮的能力,讓上述高度精确但無法實現的模拟方法變得可行。
INR 通常對每個場景隻需訓練一次,但 NFM 卻把它用作一個中間變量在模拟的過程中不斷的進行更新,這也對 INR 的性能提出了更苛刻的要求。
針對這點,NFM 提出了一種稱作 SSNF 的新型高性能 INR。
通過自動規劃空間稀疏存儲中每個格點的開啓狀态,以及一個基于 Lagrange 多項式的時間處理方案,SSNF 達到了比 Instant-NGP、KPlanes 等方法更快的收斂速度,更高的壓縮比,以及更高的存儲精度。
拿下最新 SOTA
實驗結果表明,作爲一個基于 AI 的模拟器,NFM 顯著地超越了 SOTA 方法:bimocq、covector fluids 以及 MC+R。
在 2D 點渦(point vortex)保持的實驗中,NFM 的平均絕對誤差對比其餘三者減少了最少 14,最多 308 倍。
在 3D 蛙跳(leapfrogging vortices)實驗中,NFM 也顯著提升了能量守恒的能力。
同時,這種數值能力體現爲對自然現象的更好模拟:根據物理定律,蛙跳中的兩對渦管将永不融和,而 NFM 的兩個渦管在完成 5 次蛙跳後仍然保持分離,對比的方法至多在 3 次之後就完全融和。
最後,文章還通過一系列算例(如固體交互,瑞利泰勒不穩定性,渦管重連等)展示了 NFM 在創作複雜視覺效果上的優越性。
在這個層面上值得注意的是,盡管都是利用 AI 賦予流體更多的細節,現有的 AI 超分辨率算法隻能提升畫面細節,但 NFM 卻突破性地以物理的方式提升了動力學細節,從而根本性地提高了流體模拟的真實度。
項目鏈接:https://yitongdeng-projects.github.io/neural_flow_maps_webpage/
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~