對于汽車的定義,不同的時代有不同的理解。
在汽車尚未普及的時代,李書福說 " 汽車就是四個輪子加一個沙發 ",在智能化方興未艾之時,雷軍曾評價第一代 Model S 是 " 四個輪子加一個 iPad"。
而如今,在芯片、AI 等技術的加持下,汽車正成爲繼手機之後下一個超級移動終端,用地平線創始人餘凱的話說,現在的車就是 " 四個輪子上的超級計算中心 "。
而要打造一台行駛中的超級計算機,以此實現更強的智能駕駛能力,難度可想而知。
其中的關鍵就在于對于數據的利用,包括收集、存儲、标準、計算以及過程中的合規要求等等,而要建立這樣一個高效的數據運維體系,絕不是車企單打獨鬥就可以實現的。
跨越鴻溝的隐秘代價
智能電動汽車的重心,正在加速倒向智能,尤其是智能駕駛。
今年以來,特斯拉 FSD 盛傳即将入華,造車新勢力相繼開卷城市高階智駕,公布了各自的時間表。而通勤模式的發布,更是讓智能駕駛第一次看到了 " 殺手級應用 " 的希望。
當智能汽車開得越來越溜,能夠妥善處理更多複雜場景,它将赢得消費者更多的信任。來自一線銷售的反饋顯示,智能駕駛在影響消費者購車決策中的排名迅速上升,正在從錦上添花型需求轉向剛需。中信證券預計,L2+ 智能駕駛滲透率有望在今年達到 8%。
這意味着,作爲一項創新技術,高階智能駕駛即将步入" 跨越鴻溝 "的階段——如果跨越不了,便化爲一場泡沫;要是跨過去了,則能實現商業閉環,成長爲一項改變世界的重大技術。
而智駕跨越鴻溝實現商業閉環的前提是,實現數據閉環,讓智能駕駛汽車從海量的數據中不斷地學習、持續增強能力。
不過絕大多數消費者不了解,甚至一部分車企業也沒意識到的一點是,數據閉環的門檻,其實并不比造車低。這是一個涉及環節衆多,所需資源甚廣的苦活累活,不僅僅需要車端研發,更需要巨額的雲端投入。
一般來說,智能駕駛數據閉環分爲幾個環節:數據在車端篩選采集後,傳輸并存儲在雲端超算中心,而後數據會被标注,作爲養料供算法模型訓練。算法模型訓練完成後,通常會進行仿真、驗證,檢驗訓練效果,最後再通過 OTA,更新車端智駕算法。
在其中僅車端數據采集環節,就需要解決數據合規、場景挖掘、計算資源調度等問題,需要一支專門團隊負責。而到了雲端,資源的消耗更呈指數級增加。
比如特斯拉在車隊收集了數十億公裏智能駕駛裏程後,爲了妥善利用數據,決定自研單體計算能力達 1 EFlops(每秒一百億億次浮點運算)的 Dojo 超算。
爲此,特斯拉啓用了大量新芯片工藝、帶寬技術、供能 / 散熱技術,但代價不僅是技術不成熟屢次跳票,而且成本高、先期投入巨大。在 2024 年前,DOJO 超算的搭建預計會消耗 10 億美元投資。
放眼到整個汽車行業,能像特斯拉這樣财大氣粗的車企屈指可數。一方面,主機廠如今身負重任,一邊造車、一邊開發軟件算法已經是殚精竭慮、砸鍋賣鐵;另一方面,車市步入存量市場,價格戰導緻的普遍低毛利,也在蠶食着主機廠的現金流。
手中沒啥餘糧的車企,很難再獨力承擔雲端設施的構建,迫切需要一種輕資産的模式實現智能駕駛數據閉環。與雲服務商深入合作,便成爲車企跨越智駕鴻溝的必經之路。
智能汽車的超級基建
今年初,伴随着 ChatGPT 的大火,一段佳話也随之流傳開:出于對 OpenAI 的信任,微軟不惜砍掉了自家部門的一部分研發資源,從其 Azure 雲中騰出了上萬塊 GPU 訓練 GPT3.5,促成了 ChatGPT 的騰飛。
這顯然給車企們生動地上了一課:雲端算力的力大磚飛,是當下發展 AI 的 " 正确姿勢 "。
于是,車企們還沒治好兩年前患上的車端算力饑渴症,就又患上了雲端算力焦慮症。多家國内車企聯合雲計算大廠進行 " 算力基建 ",将雲端算力儲備提升到了數百甚至上千 PFlops(1PFlops 即每秒浮點運算一千萬億次)。
擁有自研雲端訓練芯片、在國内汽車雲市場份額第一的華爲也不落于人後。 7 月 7 日, 華爲雲 2000 PFlops 單集群的昇騰 AI 雲服務在烏蘭察布上線,将智駕雲端算力的 " 基本計量單位 " 提升到了 EFlops(1 EFlops=1000 PFlops,每秒一百億億次浮點運算)級。
不過,車企需要的汽車雲,算力其實隻是基礎。一朵能幫助車企建設、叠代智駕能力的智駕雲,不僅應該是算力怪獸,也要同時滿足安全合規、降本增效、服務全面。
過去,車企對較敏感數據的上雲多采用私有雲,但它不能完全滿足智能駕駛的需求。
一方面,智能駕駛在法理上受《測繪法》約束,有更嚴苛的合規需求;另一方面智駕的數據量龐大,數據形式複雜多樣,涉及利益方更多,而智駕又處在劇變的關鍵節點,安全穩定至關重要,因此适合專雲專用。
以華爲爲例,7 月 21 日華爲雲推出烏蘭察布汽車專區,打造了特定的高性能數據中心,建立起更嚴謹的三分區合規框架,并引入了圖商駐場辦公,讓車企在華爲雲汽車專區就能實現快速合規、全流程合規。
同時,汽車專區的多層安全防護體系和運維體系,也能保證雲端的算力與服務持續穩定地運行。比如算力 2000 PFlops 的計算集群,能保持一個月長穩率 90% 狀态持續訓練。
而在保證安全合規的前提下, 行業一直希望加速智能駕駛的算法訓練。叠代越快越多,能力越強,赢得市場的希望就越大。
但一個常見的現象是:車端數據收集能力強大,雲端的算法訓練能力強大,但中間的數據帶寬、存取、預處理性能卻往往成爲瓶頸。
2023 年,自動駕駛向雲端傳輸的數據可能會達到 8000PB,可以塞滿 80 萬個企業級硬盤;一次算法訓練的預熱元數據量達到 10 億條,需要 4 天時間準備。這容易造成算力等數據的空轉浪費。
爲解決這一瓶頸,華爲汽車雲啓用了 AI 雲存儲服務,在 1000Gbit/s 數據專線、分級智能存儲、近 GPU 加速等技術支持下,能夠做到 24 小時内路采數據入雲,10 億條元數據預熱時間降至 5 小時。
而更智能的雲存儲不僅可以實現數據存儲 20% 的降本,它對算法訓練的提速實際上也變相提升了費效比。在特定案例中,華爲雲最快已經可以支持智能駕駛算法模型的天級更新,單次訓練更新的成本得以降低。
算法訓練的極速狂飙離不開華爲雲搭建的自動駕駛開發平台。傳統上,一家企業要搭建自己的自動駕駛開發平台需要 3 個月時間,但華爲雲基于長期服務汽車行業經驗,本身建立了自動駕駛開發平台,不僅可以免除部分基礎工作,還對幾乎每一個環節都進行了優化加速。
不過,行業内不同企業對智駕的投入以及具備的能力有分化,市場上有需求一條龍服務的車企,希望快速建立智駕能力與數據閉環;也有希望在某一模塊引入行業優秀方案、與自身能力結合的車企。
在這種背景下,有靈活商業模式的雲服務廠商能夠獲得更多青睐。像華爲雲,其自動駕駛開發平台就提供一站式與模塊式部署兩種方式,由合作夥伴靈活選擇。
由此,智能汽車需要的雲,其實要兼顧穩、快、全。要滿足這些條件,企業不僅要做算力基建,也要做軟件基建,還要進行生态基建,這實質上決定了市場會持續收斂,隻有少數雲計算大廠才能陪車企跨越智駕的鴻溝。
加速智駕的秘密武器
不過,智駕要跨越的鴻溝依然險峻。
今年,智能駕駛迎來了規模化進城元年,北上廣深的城市高階智駕被相繼點亮,更多二線城市也 " 開城 " 在即。但開疆拓土之際,智能駕駛也不可避免地直面長尾困境。
眼下,頭部企業的城市高階智駕能夠在大部分時間表現順利,一些品牌表示智駕系統已經可以實現數十公裏無接管,僅在少數時候、少數場景表現不力——比如在非标準紅綠燈下,智駕車輛可能會誤識别、爆沖。
然而對于大多數消費者,這些偶發但可能緻命的功能失效,足以摧毀他們的信任。
智駕要跨越鴻溝,必須攻克持續出現的長尾場景。但這些場景将耗費比以往更多的工程資源,最好的方式是行業合力突破。
7 月 21 日,在電動汽車百人會牽頭下,華爲與合作夥伴發起了 " 自動駕駛關鍵技術攻堅倡議活動 ",對十大難點技術進行技術攻關。其中引入矚目的一點是,"AI 大模型在智能駕駛的應用 "。
眼下,國内主流雲計算廠商重點發力的大模型,以語言類大模型爲主。但在智能駕駛中,數據主要是圖像,語言類大模型很難有效賦能。而在這個月,華爲雲發布了盤古大模型 3.0,它的特點是能夠将行業 know-how 與大模型能力結合,解決細分行業、細分領域的難題。
在盤古基礎模型之上,華爲雲提供了豐富的行業開發套件。協助自動駕駛算法公司,陸續開發了場景生成大模型,場景理解大模型,預标注大模型,多模态檢索大模型等場景模型,大大提升了數據處理效率。
其中,場景理解大模型與多模态檢索大模型配合,可以快速挖掘有價值的數據,加速建立智駕的場景庫;預标注大模型則自動化地對數據進行标注,不僅标注速度倍增,标注成本也将比人工标注更低。
而場景生成大模型,則是華爲開發 NeRF 神經輻射場網絡技術的成果,它能夠以更低的成本、更高的準确度與自由度,對自動駕駛的算法研發進行仿真,其仿真精度最高可達厘米級,也支持按需編輯場景中的元素。
有了場景生成大模型的支持,車企能夠以假亂真地生成現實中很難收集的罕見場景或者所需的 Corner Case,有目的性地、可掌握地定向錘煉智駕算法對長尾場景的應對能力,省錢、省時地提升智駕表現。
爲克服大模型訓練難度大、耗時長的問題, 華爲雲配套了 ModelArt AI 三大加速服務,對數據加載、模型訓練、模型推理同時加速。受益于此,禾多科技在同華爲的合作中,模型訓練速度提升了 280%。
尾聲
今年 4 月,奇績創壇創始人陸奇分享了他的大模型世界觀。在他看來,自動駕駛很可能會是第一項 " 讓執行無處不在 " 的 AGI,将更顯著地改變物理世界。
如今,行業距離它似乎隻差臨門一腳,但實際上又有着極高的勢壘需要逾越。無論如何,這項史無前例的超級工程,必然需要車端與雲端,以史無前例的方式緊密配合。
作者:熊宇翔