作者 |楊逍
編輯 |蘇建勳
北京時間 11 月 13 日傍晚,英偉達又推出了 NVIDIA HGX H200,一種比 H100 性能更強的下一代産品。據英偉達表示,該産品将于 2024 年二季度上市。此外,英偉達還透露,将在 2024 年發布基于新一代架構 Blackwell 的 B100 GPU,且将 H100 的産量增加兩倍至 200 多萬塊。
人工智能市場的火熱,正迫使英偉達加速上新速度。H100 芯片發布至今僅 8 個月,英偉達又發新芯。
英偉達産品規劃,來自官網
H200 是 H100 的升級産品,仍然采用 NVIDIA Hopper 超級芯片架構,主要面向超大規模的大模型訓練和推理工作場景。
作爲 H100 的升級版本,H200 将會具有 H100 的所有功能,如用來加速基于 Transformer 架構搭建的深度學習模型的 Transformer Engine 功能。
它最大的改變在于内存。存儲大小是算力芯片的性能指标,H200 是首款具有 HBM3e 的 GPU,這是三星所能提供的最強内存,能很好地爲生成式 AI 和大語言模型提供數據存儲空間。與上一代 H100 相比,NVIDIA H200 能以每秒 4.8 TB 的速度提供 141GB 内存,容量幾乎翻倍,帶寬增加 2.4 倍。
英偉達并未專門介紹 H200 與之前産品原始計算吞吐量的區别,不過,在采用了 HBM3e 的内存後,以基于 Meta 的 Llama 2 大模型的測試爲例,H200 的輸出速度大約可以達到 H100 的 1.9 倍,H200 對 GPT-3.5 的輸出速度則是 H100 的 1.6 倍。
H200 産品性能對比,來自官網
此前,AMD 才發布了以大内存爲主要特點的新品 MI300X GPU,希望幫助大語言模型運算推理,英偉達 H200 發布後,會加劇在大模型推理市場的競争。
除了以内存爲主要升級重點的 H200 加速器,英偉達還發布了 HGX H200 平台。
HGX H200 會以 4 路和 8 路的配置提供,它可以用在本地、雲、混合雲和邊緣等不同類型的數據中心上。該産品将部署于 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等平台,預計 2024 年第二季度推出。
英偉達表示,H200 在使用上可以和 H100 兼容,這能保證基于英偉達芯片進行模型訓練的用戶,在不更改服務器、軟件的情況下就可以無縫銜接到新産品。
令人遺憾的是,英偉達的 H200 作爲一款比 H100 更強的新品,無法在中國市場銷售。英偉達官方郵件回應 36 氪,H200 需要獲得相關出口許可證才能在中國市場銷售。
不過,近日,有消息稱,英偉達已開發出針對中國市場的最新改良版系列芯片—— HGX H20、L20 PCle 和 L2 PCle,主要基于 H100 改良而來,最快将于本月 16 号之後公布。