IT 之家 11 月 2 日消息,蘋果公司近日聯合加州大學聖塔芭芭拉分校的研究人員,演示和介紹了一種突破性算法,可以從動态 RGB 圖像中在線重建 3D 圖像。
雙方團隊挑戰低紋理區域,并嘗試解決重建圖像中固有的模糊性,将目光投向了實時執行的實用解決方案,未來将會引入到智能手機等移動設備上。
新算法根據曆史當前觀測結果生成精确的增量重建,解決了同步定位和地圖映射 (SLAM) 系統的動态特性,确保與 SLAM 更新保持一緻。
以前在密集的純 RGB 重建方面,很大程度上忽略了在線應用中相機姿态估計的動态特性,在重建過程中依然采取靜态輸入圖片的傳統表述。
而科研團隊在算法中納入了動态特性,并将其集成到現有的 RGB 技術中。團隊受 BundleFusion(一種采用線性更新算法将新視圖集成到場景中的 RGB-D 技術)的啓發,探索解構了舊視圖,然後重新整合提供位置數據。
蘋果和加州大學聖塔芭芭拉分校的研究人員引入了一種獨特的基于深度學習的非線性去整合技術,該技術專門用于促進 NeuralRecon 等技術的在線重建,該技術依賴于學習的非線性更新規則。
爲了驗證他們的方法,他們引入了 LivePose 數據集,這是一個開創性的資源,包含使用 BundleFusion 生成的 ScanNet 的完整動态姿勢序列。該數據集是評估其技術和促進未來研究的關鍵工具。
這一突破有可能爲增強現實、虛拟現實和其他需要精确 3D 建模的行業帶來新的可能性。
IT 之家在此附上蘋果官方介紹鏈接,感興趣的用戶可以深入閱讀。