在人工智能的三駕馬車中,算力作為算法和數據的支撐,它的作用一直都不容小觑。
目前,人工智能在和各個行業不斷融合發展,這對算力也提出了更高的要求。
無論是 AI 大模型訓練,自動駕駛系統的感知模型訓練,還是 AI+Science 或者數字人的建模或渲染,都離不開強大算力的支撐。
在 MEET2023 智能未來大會上,浪潮信息副總裁、浪潮人工智能與高性能計算産品線總經理劉軍分享了在 AI 新時代,他對智算算力的一些思考,并抛出了這樣一個觀點:
智算力就是創新力。
為了完整體現劉軍的分享及思考,在不改變原意的基礎上,量子位對他的演講内容進行了編輯整理。
關于 MEET 智能未來大會:MEET 大會是由量子位主辦的智能科技領域頂級商業峰會,緻力于探讨前沿科技技術的落地與行業應用。今年共有數十家主流媒體及直播平台報道直播了 MEET2023 大會,吸引了超過 300 萬行業用戶線上參會,全網總曝光量累積超過 2000 萬。
演講要點
目前智算的發展有三個趨勢:算力多元化、模型巨量化、元宇宙。
計算的目标是支撐業務,不同的業務類型對計算系統提出的需求也是不同的。
AI 算法正在從感知智能向認知智能邁進,模型參數持續增大,預訓練算法要求也越來越高。
元宇宙的構建需要協同創建、高精仿真、實時渲染、智能交互四大環節,各個環節都會涉及到不同的計算類型。
(以下為劉軍演講全文)
智算力就是創新力
當今人工智能前沿領域的大模型,就是在智算算力驅動下重大創新的典型,比如 GPT-3,浪潮 " 源 1.0" 等等。
為此,浪潮提出用 " 算力當量 " 來對 AI 任務所需算力總量進行度量,單位是 PetaFlops/s-day 也就是 PD,即用每秒千萬億次的計算機完整運行一天消耗的算力總量(PD)作為度量單位。
一個任務需要多少 PD 的計算量,就把它視為這個任務的 " 算力當量 "。
而現在人工智能的不斷發展也對算力有了更高的要求,在各個領域均是如此,在這裡舉幾個簡單的例子:
首先是 AI 大模型訓練方面,GPT-3 等自然語言模型和 DALL-E 2、stable diffusion 等多模态模型訓練都對算力有着非常高的需求,GPT-3 的算力當量是 3640 個 PD,源 1.0 作為 2457 億的參數的大模型,它的算力當量是 4095 個 PD。
再來講講元宇宙中數字人的建模和渲染,如果要創建一個栩栩如生的人物形象并對其進行渲染,以《阿麗塔:戰鬥天使》來舉例,它平均每一幀需要花 100 個小時來渲染,總共這部影片的渲染計算使用了 4.32 億小時的算力。
在自動駕駛領域,特斯拉創建了 DOJO 的智算系統,用于感知模型的訓練和仿真。它的 FSD 全自動駕駛系統的融合感知模型,訓練消耗的算力當量是 500 個 PD。
在備受關注的 AI+Science 領域、蛋白質的結構預測、分子動力學的模拟、流體力學的仿真,它不僅融合了傳統的 HPC 計算也融合了當今的 AI 計算。
比如說,經常被提及的 AlphaFold2,它的訓練消耗的算力當量是 300 個 PD。與此同時,為 AlphaFold2 訓練所做的數據準備,也需要花費 200M CPU-hours HPC 算力。
因此,我們可以确切地認識到,今天在 AI 領域的衆多創新背後離不開智算力的支撐,可以說智算力就是創新力。
那麼接下來就結合三個重要的趨勢:算力多元化、模型巨量化以及元宇宙,談一談智算發展。
算力多元化
首先先來講下算力多元化。這是在不同的業務類型對計算系統的不同要求下催生出的,也體現出了場景多樣化。
換句話說,AI 應用引入了新計算類型,從推理到訓練,跨度更大,同時數據量級不斷提升,類型也更加複雜多樣。
當然,不同數值精度的計算類型對于芯片指令集、架構的要求是不一樣的。
比如說,在超算裡面可能會需要 LP64 雙精度的計算,在 AI 的訓練需要使用數字範圍更大、精度低的 16 位浮點,在 AI 推理的場景可以使用到 8 位或者是 4 位的整點。
而要适應這些計算的特點,就需要引入多元的算力芯片來進行支撐,而浪潮也從軟件和硬件上兩方面來應對多元算力的挑戰。
首先是硬件上,為了更好地推動多元算力部署應用、促進國産 AI 算力生态健康發展,浪潮開發了軟硬一體的多元算力支撐平台:浪潮 AI 服務器。
它采用高帶寬、全互聯的拓撲構架、開放的硬件标準,支持 8 顆 500W 液冷開放加速芯片 , 單集群可提供超過 200PFLOPS 峰值 AI 算力。
目前已兼容寒武紀、燧原、壁仞等多家國産高端 AI 算力芯片;基于這款服務器浪潮還與燧原科技聯合開發了千卡級液冷智算中心産品—— " 錢塘江 ",整體 PUE 實測值優于 1.05,能效比業界領先。
并且, " 錢塘江 " 還搭載了浪潮 AIStation 智能業務創新生産平台," 源 " 巨量模型算法能力,構成領先的算力算法一體化智算中心解決方案。
再來看看軟件方面,除了 AI 服務器之外,浪潮還開發了業界首款智算中心算力調度軟件:AIStation,将異構 AI 芯片管理進行标準化與流程化。
從基本的接入适配到業務應用在異構算力的使用優化,AIStation 提供了完備的工具與解決方案,與傳統開源方案相比,芯片接入穩定性方面提升 30%,減少接入工作量 90% 以上。
在大型智算中心項目上,AIStation 能夠穩定高效的管理 2000+ 異構 AI 芯片,支持上千戶同時在線開發,滿足多場景算法研發和大規模算力需求。
AIStation 通過自研的算力調度系統,實現降低接入成本 50%,整理資源利用率提升 30%,管理效率提升 50% 以上,還讓算力使用更便捷、更高效,降低 AI 開發與部署對異構算力使用的門檻,實現真正的算力普惠。
不僅如此,在實踐方面,浪潮也在不斷探索,依托于在 AI 服務器、AI 軟件等方面的技術創新,目前宿州市與浪潮達成戰略合作,共同建設多元算力智算中心——淮海智算中心。
智算中心非常好地結合了 GPU 的算力芯片和國産寒武紀的 AI 智算芯片,通過 AIStation 系統實現了混合算力的調度。
它采用通用 GPU 可提供 FP64 雙精度、FP32 單精度,FP16 半精度及 INT8 整形等多種精度算力,支持專用的深度學習張量加速單元 Tensorcore,比傳統計算單元算力提升十倍以上。
并且還支持國内外主流的深度學習的框架、數學庫、數據集降低用戶的學習成本。
此外,智算中心還采用寒武紀 MLU370-M8 芯片,采用先進的 OAM 芯片間高速互聯架構,提供國内唯一一個能支持八顆國内高端 AI 芯片高速互聯的的平台系統,AI 芯片間的高速互聯有利于提升大規模分布式訓練的性能。
模型巨量化
然後是模型巨量化,目前在 AI 算法方面,一個明顯的趨勢就是在從感知智能向認知智能邁進,AI 模型從 " 能聽會看 " 逐步走向 " 能思考,會創作 ",甚至推理、決策的層面。
模型巨量化也就是通常所說的大模型,大模型正在成為 AIGC 的算法引擎,無論是 DALL-E,還是今年爆火的 Stable Diffusion,它們背後都是大模型在驅動。
大模型使得我們今天能夠從 AI 五年前的能聽會看走到今天能思考、會創作,下一步它也即将朝着會推理、能決策發展。
不過大模型在算力方面也面臨着巨大的挑戰:如何能夠把大模型的能力交付到衆多的中小的企業,幫助他們實現智能化的轉型?
在這方面,浪潮認為 Model as a service(MaaS)是比較好的一種方式。
在大模型能力的加持下,目前的 AIGC,比如文本的生成、文生圖以及虛拟數字人等應用都會迅速進入到商業化階段。
就拿浪潮去年推出的源 1.0 來說,它是面向中文語言的擁有 2457 億參數的巨量模型。
在算力這一塊兒,浪潮做了大量深入的優化,實現了數據并行、流水線并行以及在算力的效率層面達到了 45% 的算力利用率。
也就是說,這已經遙遙領先于 GPT-3,包括一些像 megatron 的大型訓練的模型。
與此同時,源 1.0 還通過對推理框架的優化,現在已經實現了對多款國産化 AI 芯片的支持。
這麼強大的算力具體在源 1.0 上是怎麼體現的?舉幾個簡單的例子。
第一個是基于源 1.0 構建的 AI 劇本殺,在給定的背景和場景下,讓 AI 與人進行多輪開放式對話,不但需要 AI 能夠創造性思考,理解人的情感,甚至還需要有策略地與人博弈,影響對話走向。
這款 AI 劇本殺最後展現出來的效果也很強大,玩家很難感受到這是一個 AI 的玩家在和他一起玩劇本殺,因為它在這裡面所表現出來的引導能力、情景化的理解能力是我們在傳統的 AI 算法上面很難見到的。
這個項目已經在 GitHub 上開源,感興趣的話可以查看。
第二個案例是,上海一個開發者的群體基于源 1.0 構建了數字社區助理,換句話說,就是打造了一個教練來提升居委會社區工作者應對居民的突發狀況服務的能力。
同時這也開啟了一個新的想象空間,也就是新的教培領域的産業。
還有一個案例就是基于源 1.0 的公文寫作助手,最近 AIGC 領域備受熱議的當屬 ChatGPT 了,也不用多做解釋,簡單來說它就是基于大模型的一個 AIGC 面向長文本、多輪對話的應用。
而浪潮的公文寫作助手也是生成文本的 AI,專門面向公文寫作場景,通過在高質量公文數據上進行知識蒸餾,構建的公文寫作技能模型可支持總結報告、學習心得等内容輔助寫作。
最終可實現從語義到段落級、篇章級文本生成和優化,輔助文字工作者打造高質量文案。
目前這個 AI 還處于内測階段,歡迎大家來申請使用。
除了上面說的那些具體應用之外,浪潮也把這樣的大模型應用在自身業務上面,以實現自身業務智能化的轉型。
作為中國最大、全球第二的服務器的廠商,浪潮構建了一個基于源 1.0 的龐大的客戶服務系統,并且不同于傳統的智能化客服的問答系統,浪潮的系統可以進行長文本的内容生成,能夠持續的進行多輪的對話。
更重要的是它不僅僅基于一個知識的規則去構建問答系統,還可以自己去主動閱讀全球所有和服務器相關的産品文檔。
可以說這個系統是真正的服務器 " 服務大佬 ",在它的支撐下,客戶的支持效率得到了大幅的提升,它也榮獲了《哈佛商業評論》年度新技術突破獎這樣一個頂格獎。
元宇宙需要強大算力支撐
最後一個再來說說元宇宙,先抛出一個問題,大家覺得元宇宙需要算力嗎?
答案是不僅需要,而且是非常需要!元宇宙的構建包括協同創建、高精仿真、實時渲染、智能交互四大環節,這其中每個環節都涉及到不同的計算類型,需要大量的算力去支撐。
比如說在協同創建階段,會涉及到多個 3D 軟件的協同,這時便需要桌面虛拟化來給建模工程師提供工作界面。
在高精仿真階段,需要進行元宇宙場景的物理仿真,既有傳統的基于 HPC 的仿真軟件,也有基于 AI 的仿真算法。同時也會涉及到對仿真結果的可視化展示。
對于元宇宙來說,3D 場景的實施渲染是必不可少的,因此像光線追蹤,路徑追蹤等前沿的圖像渲染算法,和 DLSS 等基于 AI 的算法,也是必不可少的。
最後,人工智能計算在元宇宙的智能交互環節會有很多應用。比如數字人和環境的交互會涉及到 ASR、TTS、NLP 等多種 AI 算法。
如此種種都對算力基礎設施提出更高的要求,不僅僅要求高性能、低延遲、易擴展的硬件平台,還要求有端到端、生态豐富、易用的軟件棧。
在此,浪潮推出了元宇宙服務器 MetaEngine,旨在打造支撐元宇宙的軟硬一體化算力基礎設施。
在硬件上,采用浪潮領先的異構加速服務器的旗艦系統,支持最先進的 CPU 和 GPU,具有強大的 RDMA 通信和數據存儲能力,可提供強大的渲染和 AI 計算能力。
在軟件上,MetaEngine 可以支持對應每個作業環節的各類專業軟件工具,用戶可以根據使用習慣靈活選擇,同時它還可以系統全面支持 Nvidia Omniverse Enterprise。
當前 MetaEngine 可實現每秒 AIGC 2000+ 場景,支持 1000+XR 用戶同時接入,共享 10K 超高清 3D 數字世界順暢體驗。
當然在具體的實踐方面,浪潮也穩步前進,為了推動了元宇宙的快速落地,上個月青田人民政府和浪潮信息,谷梵科技一起簽約建設國内首個元宇宙算力中心。
這個元宇宙算力中心用于支撐在青田、浙江乃至于長三角在元宇宙的數字空間創建、數字産業發展,支撐數字經濟、數實融合的發展。
謝謝大家!