3 月 19 日消息,在昨晚的 GTC 開發者大會上,NVIDIA 正式推出了面向人工智能模型的新一代 Blackwell GPU 架構,以及基于此架構的新一代 AI 加速卡—— GB200。NVIDIA 的 CEO 黃仁勳指出:"Blackwell 并非僅是一款芯片,而是一個平台 "。
(圖源:GTC 2024)
也就是說,GB200 實際上由兩個 Blackwell B200 GPU 和一個 Grace CPU 組成的 AI 加速平台。據悉,每個 B200 GPU 含有 2080 億個晶體管。相較于 H100,GB200 的算力提升了 6 倍,而在處理多模态特定領域任務時,其算力更是能達到 H100 的 30 倍。
算力的提升雖然重要,但并非這次芯片更新的重頭戲。相比之下,更關鍵的是能耗和成本的大幅降低。上一代的 H100 AI 加速卡峰值功率高達 700 瓦,而訓練一個 1.8 萬億參數模型需要 8000 個 Hopper GPU 和 15 兆瓦的電力。
與 H100 相比,新一代的 GB200 AI 加速卡僅需原來 25 分之一的成本和能耗,即用 2000 個 Blackwell GPU 就能完成相同的任務,且功耗隻有 4 兆瓦。
簡單來說,GB200 的性能是 H100 的 7 倍,而成本和能耗更低。
此前便有專家預測,随着大量 H100 的部署,其總功耗将與一座美國大城市不相上下,甚至超過一些歐洲小國。而 GB200 這一巨大的性能提升和能效改進,意味着數據中心和 AI 應用将能以更低的成本運行更加複雜和要求高的計算任務,從而加速 AI 技術的發展和應用。
誠然,從十多年前的智能手機,到現如今的 AI,随着科技在這十年間飛速發展,AI 也迎來了爆發式的增長,随之而來的就是所需算力越來越高。而目前 NVIDIA 在 AI 領域的進度已經甩掉同行一大截了,GB200 的推出也很可能促使其他公司加快開發和推出自己的高性能 AI 加速卡,從而激化市場競争。
加上英偉達還推出名爲 NIM 的創新軟件和一個用于制造類人機器人的硬件和軟件平台,這将進一步使部署人工智能變得更容易,爲客戶在競争日益激烈的領域中堅持使用英偉達芯片提供了又一個理由。
長期來看,這将促進技術創新,爲用戶帶來更多、更好的選擇,同時推動整個行業向前發展。
總而言之,GB200 與前代産品之間的顯著性能差異可能會促使數據中心和企業客戶更新他們的硬件,以利用新技術帶來的優勢。這也意味着,在需要處理大量數據和複雜計算的領域,AI 技術在各行各業的應用将進一步加速。