快科技 3 月 19 日消息,在整個 AI 算力硬件的搭建中,英偉達毫無疑問站在最頂端,其 GPU 的動态發展,直接關乎了行業的發展。
在今天開幕的 GTC 2024 上,黃仁勳帶來了新的 B200 GPU,其擁有 2080 億個晶體管,可提供高達 20petaflops 的 FP4 算力。
至于 GB200,就是将兩個 GPU 和一個 Grace CPU 結合在一起,可爲 LLM 推理工作負載提供 30 倍的性能,同時還可能大大提高效率。
英偉達也形象給出了提升的高度,比如訓練一個 1.8 萬億個參數的模型以前需要 8000 個 Hopper GPU 和 15 兆瓦的電力。如今,2000 個 Blackwell GPU 就能完成這項工作,耗電量僅爲 4 兆瓦。
在具有 1750 億個參數的 GPT-3 LLM 基準測試中,GB200 的性能是 H100 的 7 倍,而訓練速度是 H100 的 4 倍。這些顯著性能的提升下,新一代 NVLink 交換機起到了關鍵效果,可讓 576 個 GPU 相互連接,雙向帶寬達到每秒 1.8TB。
按照黃仁勳的說法,搭載 B200 芯片的 GB200 Grace Blackwell 計劃今年晚些時候發貨,英偉達目前并未公布 GB200 以及整套方案的售價信息,但目前的現狀是有錢你也不一定能買到,中國廠商也是看看就行了。
黃仁勳表示,Blackwell 帶來了 " 令人難以置信的興奮 ":" 我們将會把 Blackwell 推廣給全球的 AI 公司,全球各地都在簽約啓動 Blackwell,這款 Blackwell 将成爲我們曆史上最成功的産品發布。"
Blackwell 平台能夠在萬億參數級的大型語言模型(LLM)上構建和運行實時生成式 AI,而成本和能耗比前身低 25 倍。