IT 之家 2 月 4 日消息,随着人工智能 ( AI ) 和高性能計算 ( HPC ) 行業的飛速發展,對内存帶寬的要求也水漲船高。目前擁有 9.6 GT/s 數據傳輸速率的 HBM3E 内存剛剛實現量産,但下一代 HBM4 内存已經箭在弦上,預計在兩年内與大家見面。
圖源:AMD
根據 Business Korea 報道,SK 海力士公司副總裁 Chun-hwan Kim 在 SEMICON Korea 2024 大會上表示,他們正計劃于 2026 年之前實現 HBM4 的量産,以滿足生成式人工智能快速發展帶來的巨大需求。生成式人工智能市場預計将以每年 35% 的速度增長,這将推動處理器性能的提升,進而對内存帶寬提出更高的要求。
據 IT 之家了解,目前單顆 HBM3E 内存堆棧能夠提供高達 1.2TB / s 的理論峰值帶寬,如果一個内存子系統包含 6 個堆棧,總帶寬則可達到驚人的 7.2 TB / s。然而,理論值與實際應用之間存在差距。例如,英偉達的 H200 顯卡雖然搭載了 HBM3E 内存,但其提供的帶寬 " 隻有 "4.8 TB / s,這可能是出于可靠性和功耗方面的考慮。
爲了進一步提升内存帶寬,HBM4 将采用 2048 位接口,理論峰值帶寬可超過 1.5 TB / s。爲了控制功耗,HBM4 的數據傳輸速率預計保持在 6 GT/s 左右。不過,2048 位接口需要更複雜的布線設計,這将導緻 HBM4 的成本高于 HBM3 和 HBM3E。
除了 SK 海力士,三星也在積極研發 HBM4 内存,并同樣計劃于 2026 年量産。值得一提的是,三星還針對特定客戶開發定制化 HBM 内存解決方案。
三星内存業務執行副總裁 Jaejune Kim 表示:"HBM4 目前正在開發中,預計在 2025 年提供樣品,2026 年實現量産。由于生成式人工智能的需求,定制化 HBM 内存也越來越受歡迎。我們不僅在開發标準産品,還将與關鍵客戶讨論通過添加邏輯芯片爲每個客戶定制優化性能的 HBM 内存。"