作者 |楊逍
編輯 |蘇建勳
在大模型和生成式 AI 浪潮下,英偉達面向數據中心的産品 A100、H100 産品備受矚目,幾乎是大模型、雲計算公司的唯一選擇。
爲了不受制于英偉達,AMD、英特爾等芯片廠商正尋求在人工智能市場占有一席之地,微軟、谷歌、OpenAI 等會大批采購 AI 芯片的企業,則尋求自研芯片。
競争對手林立,英偉達也正不斷推動産品研發和加快更新叠代速度。近日,據 servethehome 等外媒披露了英偉達的數據中心産品路線圖,展示了英偉達面向人工智能市場的産品規劃,将推出 H200、B100 和 "X100" 等多款 GPU。
英偉達未來産品規劃
如今,英偉達的 A100、H100 芯片一卡難求,無論是企業級客戶還是消費級客戶,都隻能搶購 A100、H100 産品來完成大模型的訓練。
英偉達正計劃增加面向數據中心市場的産品種類,推出多款面向 AI 計算和 HPC 的産品,讓不同的客戶可以有針對性購買産品,降低購買芯片難度。
通過架構圖可以看到,未來英偉達将會對基于 Arm 架構的産品和基于 x86 架構的産品分開。
2024 年推出的 H200h 和 L40S 仍基于 x86 架構設計。H200 是對 H100 的重新設計, NVIDIA 的 H100 擁有 80GB 的 HBM3 内存,H200 的内存容量會增加 3.5 倍,帶寬會增加 3 倍,且擁有 282GB 的 HBM3e 内存。
L40S 則是面向企業級客戶的推理芯片,配備 48GB GDDR6 顯存和 64GB/s 的雙向顯存帶寬,在在 FP64 和 FP32 性能上甚至高于 A100,且提供 RT 核心,可以用于實時光線追蹤。
GH200 和 GH200NVL 則将使用基于 Arm 的 CPU 和 Hopper 解決大型語言模型的訓練和推理問題。相比之下,GH200NVL 采用了 NVL 技術,具有更好的數據傳輸速度。
英偉達也加快了新品推出的速度。通過産品名稱可以看出,"B" 系列 GPU 也有望在 2024 年下半年推出,替代之前的第九代 GPU Hopper。此外,有報道稱英偉達下一代 GPU 産品代号爲Blackwell。
英偉達計劃推出用基于 x86 架構的 B100 接替 H200;計劃用基于 ARM 架構的推理芯片 GB200 替代 GH200。此外,英偉達也規劃了 B40 産品來替代 L40S,以提供更好的面向企業客戶的 AI 推理解決方案。
而 2025 年的 X 系列,可能是一個代号,取代 Blackwell GPU。從 A100 到 H100,英偉達用了 2 年時間,H200 也隻是 H100 基于同一款 hopper 架構的更新産品,但 BlackwellGPU 和代号爲 x 的新一代架構 GPU 按規劃達到了一年出一款新産品的速度。
在網絡方面,Infiniband 和以太網都将于 2024 年從 400Gbps 發展到 800Gbps,然後在 2025 年達到 1.6Tbps。
不過,英偉達在以太網上并不具有優勢,Broadcom 的 2022-2023 系列就有了 800G 系列,英偉達相對慢了一步。
可以看到,英偉達正加快了産品叠代更新速度,且增加了面向數據中心、HPCGPU 的産品細分程度,讓不同客戶能選擇更适合的産品。