從英偉達的産品路線來看,在未來 1-2 年,AI 芯片市場将再次天翻地覆。
作爲人工智能領域的領軍企業,英偉達有着強大的技術實力和廣泛的應用場景,在過去一年中,生成式 AI 的需求爆發爲其帶來了巨大的增長機遇。
根據富國銀行的統計,英偉達目前在數據中心 AI 市場擁有 98% 的市場份額,而 AMD 僅有 1.2% 的市場份額,英特爾則隻有不到 1%。
由于英偉達的 AI 芯片價格高昂,且存在着供應不足的問題,這也迫使一些客戶希望選擇其他的替代産品。在競争對手林立的同時,英偉達也正不斷推動産品研發和加快更新叠代速度。
01 英偉達:兩年 12 款 GPU
近日,servethehome 披露了英偉達的數據中心産品路線圖,展示了英偉達面向人工智能市場的産品規劃,将推出 H200、B100 和 X100 等多款 GPU。
英偉達正計劃增加面向數據中心市場的産品種類,推出多款面向 AI 計算和 HPC 的産品,讓不同的客戶可以有針對性購買産品,降低購買芯片難度。通過架構圖可以看到,未來英偉達将會對基于 Arm 架構的産品和基于 x86 架構的産品分開。
H200:2024 年第二季度開始供貨
2023 年 11 月 13 日,英偉達宣布推出 NVIDIA HGX H200,爲全球領先的 AI 計算平台帶來強大動力。該平台基于 NVIDIA Hoppe 架構,配備 NVIDIA H200 Tensor Core GPU 和高級内存,可處理生成 AI 和高性能計算工作負載的海量數據。H200 将于 2024 年第二季度開始向全球系統制造商和雲服務提供商供貨。
NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 具有更快、更大的内存,可加速生成式 AI 和大型語言模型,同時推進 HPC 工作負載的科學計算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。
英偉達表示,H200 可以部署在各種類型的數據中心中,包括本地、雲、混合雲和邊緣。
L40S:2023 年秋季推出
L40S 是英偉達最強大的 GPU 之一,其在 2023 年推出,其旨在處理下一代數據中心工作負載:生成式 AI、大型語言模型(LLM)推理和訓練,3D 圖形渲染、科學模拟等場景。
與前一代 GPU(如 A100 和 H100)相比,L40S 在推理性能上提高了高達 5 倍,在實時光線追蹤(RT)性能上提高了 2 倍。内存方面,它配備 48GB 的 GDDR6 内存,還加入了對 ECC 的支持,在高性能計算環境中維護數據完整性還是很重要的。
L40S 配備超過 18,000 個 CUDA 核心,這些并行處理器是處理複雜計算任務的關鍵。L40S 更注重可視化方面的編解碼能力,而 H100 則更專注于解碼。盡管 H100 的速度更快,但價格也更高。
GH200/GH200NVL:2024 年第二季度投産
2023 年 8 月,英偉達宣布推出新一代 GH200 Grace Hopper 超級芯片,新芯片将于 2024 年第二季投産。
NVIDIA GH200,結合了 H200 GPU 和 Grace CPU,将 Hopper 架構 GPU 和 Arm 架構 Grace CPU 結合,使用了 NVLink-C2C 将兩者連接起來。每個 Grace Hopper Superchip 包含了 624GB 的内存,其中有 144GB 的 HBM3e 和 480GB 的 LPDDR5x 内存。
GH200 和 GH200NVL 将使用基于 Arm 的 CPU 和 Hopper 解決大型語言模型的訓練和推理問題。GH200NVL 采用了 NVL 技術,具有更好的數據傳輸速度。
此外,"B" 系列 GPU 也有望在 2024 年下半年推出,替代之前的第九代 GPU Hopper。
B100、B40、GB200、GB200NVL 也将在 2024 推出
英偉達計劃推出用基于 x86 架構的 B100 接替 H200,計劃用基于 ARM 架構的推理芯片 GB200 替代 GH200。此外,英偉達也規劃了 B40 産品來替代 L40S,以提供更好的面向企業客戶的 AI 推理解決方案。
根據英偉達公布的信息,該公司計劃于 2024 年發布 Blackwell 架構,而采用該架構的 B100 GPU 芯片預計将大幅提高處理能力,初步評估數據表明,與現有采用 Hopper 架構的 H200 系列相比,性能提升超過 100%。這些性能提升在 AI 相關任務中尤爲明顯,B100 在 GPT-3 175B 推理性能基準測試中的熟練程度就證明了這一點。
X100 計劃 2025 年發布
英偉達還披露了 X100 芯片的計劃,計劃于 2025 年發布,該芯片将擴大産品範圍,包括企業用途的 X40 和 GX200,在 Superchip 配置中結合 CPU 和 GPU 功能。同樣,GB200 預計将效仿 B100,融入超級芯片概念。
從英偉達的産品路線來看,在未來 1-2 年,AI 芯片市場将再次天翻地覆。
02 AMD 爲生成式 AI 和大規模 AI 系統的可靠替代者
在英偉達占據絕對地位的 AI 芯片領域中,AMD 是爲數不多具備可訓練和部署 AI 的高端 GPU 公司之一,業界将其定位爲生成式 AI 和大規模 AI 系統的可靠替代者。AMD 與英偉達展開競争的戰略之一,就包括功能強大的 MI300 系列加速芯片。當前,AMD 正在通過更強大的 GPU、以及創新的 CPU+GPU 平台直接挑戰英偉達 H100 的主導地位。
AMD 最新發布的 MI300 目前包括兩大系列,MI300X 系列是一款大型 GPU,擁有領先的生成式 AI 所需的内存帶寬、大語言模型所需的訓練和推理性能;MI300A 系列集成 CPU+GPU,基于最新的 CDNA 3 架構和 Zen 4 CPU,可以爲 HPC 和 AI 工作負載提供突破性能。毫無疑問,MI300 不僅僅是新一代 AI 加速芯片,也是 AMD 對下一代高性能計算的願景。
MI300X 加速卡已在 2023 年推出
AMD MI300X 擁有最多 8 個 XCD 核心,304 組 CU 單元,8 組 HBM3 核心,内存容量最大可達 192GB,相當于英偉達 H100(80GB)的 2.4 倍,同時 HBM 内存帶寬高達 5.3TB/s,Infinity Fabric 總線帶寬 896GB/s。擁有大量闆載内存的優點是,隻需更少的 GPU 來運行内存中的大模型,省去跨越更多 GPU 的功耗和硬件成本。
2023 年 12 月,AMD 在推出旗艦 MI300X 加速卡之外,還宣布 Instinct MI300A APU 已進入量産階段,預估 2024 年開始交付,上市後有望成爲世界上最快的 HPC 解決方案。
MI300A:預估 2024 年開始交付
MI300A 是全球首款适用于 HPC 和 AI 的數據中心 APU,結合了 CDNA 3 GPU 内核、最新的基于 AMD"Zen 4" x86 的 CPU 内核以及 128GB HBM3 内存,通過 3D 封裝和第四代 AMD Infinity 架構,可提供 HPC 和 AI 工作負載所需的性能。與上一代 AMD Instinct MI250X5 相比,運行 HPC 和 AI 工作負載,FP32 每瓦性能爲 1.9 倍。
能源效率對于 HPC 和 AI 領域至關重要,因爲這些應用中充斥着數據和資源極其密集的工作負載。MI300A APU 将 CPU 和 GPU 核心集成在一個封裝中,可提供高效的平台,同時還可提供加速最新的 AI 模型所需的訓練性能。在 AMD 内部,能源效率的創新目标定位爲 30×25,即 2020-2025 年,将服務器處理器和 AI 加速器的能效提高 30 倍。
03 AMD 市場會有小幅上漲
綜合來看,全球 AI 熱潮在 2023 年開始爆發,2024 年将繼續成爲業界的焦點。與 2023 年不同的是,過去在 AI HPC 領域占據主導地位的英偉達,今年将面臨 AMD MI300 系列産品的挑戰。
由于微軟、Meta 等雲端服務大廠在一兩年前就開始陸續預訂英偉達的 MI300 系列産品,并要求 ODM 廠商開始設計專用的 AI 服務器,使用 MI300 系列産品線,以分散風險和降低成本。業界預計,今年 AMD 的 MI300 系列芯片市場需求至少達到 40 萬顆,如果台積電提供更多的産能支持,甚至有機會達到 60 萬顆。
AMD 的 CEO 蘇姿豐在聖何塞舉辦的 AMD Advancing AI 活動上談到,包括 GPU、FPGA 等在内的數據中心加速芯片,未來四年每年将以 50% 以上的速度增長,從 2023 年的 300 億市場規模,到 2027 年将超過 1500 億。她表示,從業多年,這種創新速度比她以往見到的任何技術都快。
根據富國銀行的預測,AMD 雖然在 2023 年的 AI 芯片的營收僅爲 4.61 億美元,但是 2024 年将有望增長到 21 億美元,将有望拿到 4.2% 的市場份額。英特爾也可能拿到将近 2% 的市場份額。這将導緻英偉達的市場份額可能将小幅下滑到 94%。
不過,根據蘇姿豐在 1 月 30 日的電話會議上公布的數據顯示,AMD 在 2023 年四季度的 AI 芯片營收已經超越此前預測的 4 億美元,同時 2024 年 AMD 的 AI 芯片營收預計也将達到 35 億美元,高于先前預測的 20 億美元。如果,AMD 的預測數據準确的話,那麽其 2024 年在 AI 芯片市場的份額有望進一步提高。
當然,英偉達也并不會放任其在 AI 市場的壟斷地位受到侵蝕。在目前的人工智能智能加速芯片市場,英偉達的 A100/H100 系列 AI GPU 雖然價格高昂,但一直是市場的首選。今年英偉達更爲強大的 Hopper H200 和 Blackwell B100 也将會上市。而根據一些研究機構的預測,英偉達計劃今年銷售約 150 萬至 200 萬個 AI GPU,這可能将是其 2023 年銷量的三倍,這也意味着英偉達将會徹底解決供應的瓶頸問題,面對 AMD 和英特爾的競争,屆時英偉達的價格策略可能也會有所調整。
04 更多的挑戰即将到來
英偉達要面對的不僅僅是 AMD,如今自研 AI 芯片的風潮正在科技巨頭之間興起。
今年 2 月,科技巨頭 Meta Platforms 對外證實,該公司計劃今年在其數據中心部署最新的自研定制芯片,并将與其他 GPU 芯片協調工作,旨在支持其 AI 大模型發展。
研究機構 SemiAnalysis 創始人 Dylan Patel 表示,考慮到 Meta 的運營規模,一旦大規模成功部署自研芯片,有望将每年節省數億美元能源成本,以及數十億美元芯片采購成本。
OpenAI 也開始尋求數十億美元的資金來建設人工智能芯片工廠網絡。
外媒報道,OpenAI 正在探索制造自己的人工智能芯片。并且 Open AI 的網站開始招募硬件相關的人才,官方網站上有數個軟硬件協同設計的職位在招聘,同時在去年九月 OpenAI 還招募了人工智能編譯器領域的著名牛人 Andrew Tulloch 加入,這似乎也在印證 OpenAI 自研芯片方面的投入。
不止是 Meta 和 OpenAI,據 The Information 統計,截至目前,全球有超過 18 家用于 AI 大模型訓練和推理的芯片設計初創公司,包括 Cerebras、Graphcore、壁仞科技、摩爾線程、d-Matrix 等,融資總額已超過 60 億美元,企業整體估值共計超過 250 億美元(約合 1792.95 億元人民币)。
這些公司背後的投資方包括紅杉資本、OpenAI、五源資本、字節跳動等。如果加上微軟、英特爾、AMD 等科技巨頭和芯片龍頭的 " 造芯 " 行動,對标英偉達的 AI 芯片企業數量最終就将超過 20 家。
如此來看,盡管英偉達在數據中心、遊戲和人工智能加速器等關鍵增長領域保持着引人注目的技術領導地位,但公司面臨越來越多的競争威脅。2024 年英偉達也必然會面臨更大的挑戰。