百度版 ChatGPT 底層算力支持,李彥宏老家陽泉助一臂之力!
量子位獲悉,百度陽泉智算中心從 2 月底開始就布設了兩個新機房,專門爲自家大模型産品文心一言提供計算推理的算力需求。
同樣功能的機房,在百度保定計算集群,還有兩個。
北京、華南的雲計算資源也會爲文心一言提供支持。
其中,陽泉智算中心是亞洲單體最大的智算中心,算力規模可達4EFLOPS(每秒 400 億億次浮點計算)。
而就在最近,微軟也表示爲 ChatGPT 專門打造了超算集群,由上萬塊英偉達 A100組成,并專門爲此調整了服務器架構。
那麽百度的算力基礎設施水平如何?
量子位剛剛從陽泉智算中心探訪歸來,給大家來波揭秘 ~
每秒 400 億億次浮點計算
據百度介紹,陽泉智算中心在 3 月份剛剛完成升級。
它是目前亞洲最大單體智算中心,算力規模達4EFLOPS(每秒 400 億億次浮點計算),整個建築面積約 12 萬平方米。
一共包括 13 個模組,可承載約28 萬台服務器。
智算中心采用CPU+GPU+XPU三種計算架構。
其中 XPU 應該主要指百度自家的昆侖芯,其産品一代二代均已實現量産,落地規模在 2 萬片以上。
計算能力上,基于天蠍機櫃服務器、" 冰山 " 冷存儲服務器和 X-MAN 超級 AI 計算平台等,可支持10G、25G 的通用計算網絡接入和100G 的 AI 高速無損網絡的交換機。
每秒可完成2000 萬億次深度神經網絡計算。
節能低碳方面,陽泉智算中心PUE 可以低至 1.08。(這一數值大于 1、越接近 1 表示能效水平越好)
在供電上,陽泉智算中心去除了傳統的 UPS(不間斷電源),采用 HVDC offline(高壓直流離線)技術、分布式锂電池(BBS)供電技術,把供電效率從 90% 提升到99.5%。
同時采用太陽能光伏發電(陽泉日照比較充足),在頂樓鋪設太陽能光伏面闆,直接并網發電給服務器使用。
散熱方面,由于陽泉年平均氣溫在 8-12 度,晝夜溫差大,智算中心可以直接利用當地氣候條件散熱。
據介紹,全年 96% 的時間可以使用室外冷空氣實現免費冷卻,換算過來一年裏有 14.6 天才需要全部開冷水機組制冷,從而節省了大量的能源。
技術人員表示,智算中心會按需發電和散熱,日常運維也是基于 AI 來實現的。
自 21 年 4 月以來,陽泉智算中心正式投入使用。在去年 12 月起,開始對外開放服務。
當時項目計劃投資爲 47.08 億元。
目前,陽泉智算中心可以支持各種 AI 應用場景,如語音識别、圖像處理、自然語言處理和機器學習。爲百度搜索、社區、推廣服務等提供算力支撐。
雲計算要借大模型的東風
無獨有偶,微軟也在近日公開了爲 ChatGPT 專門打造的超算集群,包含了上萬張英偉達 A100。
微軟表示,他們給 OpenAI 提供這台超算已經有 3 年之久,而 ChatGPT 也正是基于這台超算提供的算力訓練的。
此舉背後,微軟有兩方面考量。
其一,吸引更多企業來使用 Azure 訓練自己的大模型。微軟執行副總裁 Scott Guthrie 表示:
雖然它是 OpenAI 的定制版,但同樣具備某種通用性,任何企業都可以基于這種方式來訓練自己的大語言模型。
其二,直接在 Azure 中提供 OpenAI 模型服務(Azure OpenAI Service)。
此前包括 GPT-3、Codex 和 DALL · E 2 等模型,都已經接入 Azure。
至于納德拉 1 月份立的 " 要把 ChatGPT 加入 Azure 服務 "flag,目前也已經實現。
類比來看,百度想打的算盤,或許也不會局限在文心一言本身。
據介紹,爲了支持文心一言的大規模智能算力需求,百度智能雲已經完成了三大配套雲服務。
3 月份升級陽泉智算中心;
2 月,百度智能雲升級了 AI 研發運營一體化(MLOps)能力;
去年 12 月,百度發布了全棧自研的 AI 基礎設施 "AI 大底座 "(陽泉智算中心搭載了這一底座)。
前段時間李彥宏内部信中還提到:
文心一言将通過百度智能雲對外界提供服務,根本性地改變雲計算市場的遊戲規則。
這裏的意思是,大模型浪潮将改變傳統雲計算服務看算力、存儲的舊習慣,而是進入到看框架好不好、模型好不好,以及模型、框架、芯片、應用之間的協同的新遊戲規則。
由此也可推理,百度寄希望于文心一言,向市場驗證自家雲計算能力,并吸引更多企業用戶。
據介紹,百度搭建的 "AI 大底座 " 包括了百舸異構計算平台和 AI 中台兩大部分。
百舸異構計算平台可以在 AI 計算、存儲、加速、容器方面進行系統優化,承載數據處理、超大模型的推理和訓練。
AI 中台整合了飛槳深度學習框架和百度文心大模型,實現了從數據存儲到模型訓練、生産、部署、測試的全鏈路、批量化生産。
而百度智能雲更具體的能力如何?
或許從文心一言上線後的表現就能略知一二了。