隻需 "100K 大小的外挂 ",就能讓自動駕駛 AI 識别" 物體運動狀态 "的能力大幅上升!
這是一項來自香港大學計算機視覺與機器智能實驗室(CVMI Lab)和 TCL AI Lab 的新研究,目前論文已被 CVPR 2023 收錄。
研究提出了一種叫做MarS3D的輕量級模型,給原本隻能識别物體 " 是什麽 " 的語義分割模型用上後,就能讓它們進一步學會識别這些物體 " 是否在動 "。
而且是任意主流模型即插即用,幾乎不需要額外的計算量(推理時間隻增加不到 0.03 秒),目前已開源。
要知道,對于靠激光雷達來判斷周圍環境的自動駕駛系統而言,其感知能力,很大程度上依賴于 3D 點雲語義分割模型的準确率和效率。
如果想提升模型識别 " 運動物體 " 的能力,往往需要将繁重的室外多幀點雲數據分别進行特征提取和處理,但這種方法不僅要增加大量計算,識别性能也沒提升多少,屬實是事倍功半。
相比之下,MarS3D 參數量隻有約 100K 大小,卻能将主流點雲分割模型的性能提升近 5%。
這究竟是怎麽做到的?
100K 參數讓模型學會識别 " 運動 " 物體
首先要了解一下 3D 點雲的兩種語義分割任務,單掃描(single-scan)和多掃描(multi-scan)。
這兩種方法的核心差異,在于能否區分物體的運動狀态。
單掃描任務隻需要根據單幀點雲,把場景中汽車、行人、道路等語義信息分割并标注出來。像下圖,不同的顔色代表不同的物體,如藍色的點雲代表車:
多掃描任務,則需要根據時序上的多幀點雲,同時分割語義信息和運動狀态。
換言之,不僅要學會區分汽車、行人、道路,還得識别這些物體是否在運動。如汽車标簽擴展成 " 運動的車 " 和 " 不動的車 ",以及行人擴展成 " 運動的行人 " 和 " 不動的行人 ":
目前,自動駕駛做激光雷達點雲數據的處理,主要還是通過單掃描語義分割方法。
雖然能通過擴展标簽、融合點雲數據,直接将單掃描模型訓練成多掃描模型,從而讓 AI 掌握識别物體運動狀态的能力,但存在兩個問題:
一個是性能收效一般;另一個是融合點雲數據量大,導緻這種模型複雜、計算時間長,而這正是 " 争分奪秒 " 的自動駕駛系統無法接受的。
爲了解決這兩個問題,讓語義分割模型又快又好地掌握識别 " 運動物體 " 的方法,MarS3D 橫空出世。
即使之前模型隻能做單掃描語義分割,給它加個 MarS3D 後,不僅能大幅提升多掃描語義分割能力,區分物體 " 是否在運動 ",效果還比其他多掃描方法更好。
所以,MarS3D 的核心思路是什麽?
具體來說,模型設計了一個基于 2D CNN 網絡的分支BEV Branch,這個模型能提取點雲數據轉換的 BEV(Bird ’ s Eye View)表征,即自上而下的鳥瞰視角。
之所以選用 BEV,主要有兩個原因。
一方面,目前的運動物體基本都是在地上跑(即使在空中飛,也幾乎不存在垂直上升的情況),也就是說,幾乎所有的運動都在水平面上有位移,因此它能很好地反映物體在絕大部分場景中的運動狀态;
另一方面,BEV 相比點雲數據量更小,還能通過參考幀和特征圖相減,降低點雲稀疏性帶來表征不穩定的問題,即同樣靜态區域的表征近似,含有動态物體區域的表征距離更遠。此外,多尺寸卷積對表征抽取特征圖,以保證模型對不同運動速度的物體都有很強感知力。
随後,将這個分支提取的運動狀态信息特征、和其他被時序嵌入向量增強的單掃描任務模型分支3D Branch提取的語義信息特征結合起來,進行特征融合,最終實現語義分割。
那麽,這樣實現的 3D 點雲語義分割,效果究竟怎麽樣?
幾十毫秒計算,分割性能提升近 5%
相比和其他輸入如 RGB 圖像進行結合,論文重點測試了模型針對純點雲輸入的分割效果。
從下表可見,對于 SemanticKITTI 數據集,在目前主流的單掃描點雲分割模型如 SPVCNN、SparseConv 和 MinkUNet 上,MarS3D 在隻給模型增加 0.1M 的情況下(參數量增加不到 0.5%),将性能(mIoU)分别提升了 4.96%、5.65% 和 6.24%。
同時,計算時間(延遲)隻增加了 19ms、14ms 和 28ms。
5% 對于模型分割性能提升有多顯著?下圖是在兩個掃描場景中,模型增加 MarS3D 前和增加後的效果對比,其中左圖是增加前,中間是增加後,右邊是真實值:
顯然,增加 MarS3D 後模型識别物體的效果要更好。
直接将分割效果和真實值對比,可見增加 MarS3D 後的 " 錯誤值 ",比增加前要低不少:
整個推理過程,隻需要一塊英偉達 GeForce RTX 3090 GPU 就能搞定。
對 MarS3D 感興趣的小夥伴們,可以去試試了 ~
項目地址:
https://github.com/CVMI-Lab/MarS3D
論文地址:
https://arxiv.org/abs/2307.09316